百度,360,搜狗等搜索引擎在訪問一個網站的時候,最開始做的動作是檢查該網站的根域名下是否有一個叫robots.txt的純文本文件,該文件用于指定搜索引擎蜘蛛在網站上的抓取范圍。由于很多網站的一些頁面存在隱私或者是敏感內容,因此需要告訴搜索引擎蜘蛛網站中的哪些頁面是不允許抓取的,這就是Robots文件的作用。
一、Robot指令:
1,User-agent: 該指令定義了此指令下面的內容對哪些蜘蛛有效。默認所有蜘蛛都允許抓取,如果此指令指定了特定的蜘蛛,那么此指令下跟的內容就對特定蜘蛛有效。
2,Disallow: 該指令定義了禁止蜘蛛抓取哪些頁面,有些人可能認為,做網站當然都希望被抓取了。但是如果是后臺或是隱私文件,相信誰都不愿意被抓取的。
3,Allow: 該指令定義了允許蜘蛛抓些哪些內容,如果是某些內容允許,其它全部拒絕,則可以用這個指令,大多數網站只用到禁止指令。
4,Sitemap:就是我們常說的網站地圖了,把站點地圖放在Robots下面,可以方便蜘蛛直接在訪問Robots時就訪問到你的地圖位置。
二、robots的作用:
1、屏蔽死鏈接。由于改版等原因,我們網站會產生死鏈接,那么這個時候我們就需要通過robots來屏蔽這些死鏈接。我們可以通過下載網站日志來查看我們的404頁面,用txt打開網站日志,通過搜索“404”,如果你網站有404頁面,并且被訪問到了,那么這個時候就會被網站日志給記錄。
2、把沒有價值的頁面屏蔽掉。很多網站都有一些沒有價值的頁面,比如說SEO指導中心的用戶個人中心頁面,這個個人中心頁面不會對網站產生價值,在百度上面的展現也不會給網站帶來權重。因此我們需要利用robots來屏蔽這樣的頁面。又比如說:一個企業網站的聯系我們頁面,這種頁面不會給網站帶來權重,用戶也不會去搜索“聯系我們”來找他想要的產品。因此我們需要把這種頁面同時屏蔽。
3、把重復路徑屏蔽掉。當你網站出現重復路徑的時候,百度將會對我們的網站進行直接降分,比如說:一個網站做了偽靜態,同時他的動態頁面也可以訪問,這個時候就會出現重復路徑。因此我們需要通過robots屏蔽這些重復路徑。
鄭州網站建設公司大華偉業是一家專業的互聯網整合營銷公司,專業從事網站建設、網絡推廣、微信開發與代運營、微信小程序代理/開發、聯通400電話、APP開發、EC營客通銷售管理軟件、教育培訓、廣告制作、朋友圈廣告等諸多服務,歡迎大家來鄭州大華偉業廣告有限公司參觀咨詢了解。
地址:鄭州市建業路鳳鳴路向北艾尚酒店十樓
服務熱線:400-609-8880
Q Q:1205043196
網址:www.visageofmendocino.com