很多網(wǎng)站優(yōu)化人員都會遇到一個問題,在網(wǎng)站建好之后明明定期更新文章內(nèi)容,然而就是不被搜索引擎收錄網(wǎng)站。遇到這樣的問題會讓很多優(yōu)化人員無從下手,找不到正解。今天我們就帶著大家一起來找找網(wǎng)站優(yōu)化網(wǎng)站不收錄的原因,這個答案你可能會在Robots協(xié)議里找到。
一、robots協(xié)議到底是什么?
先來說說什么是Robots協(xié)議,它也叫機器人協(xié)議或爬蟲協(xié)議,它并不是一個指令,而是一個文本,一般來說常見的文本編輯器都可以創(chuàng)建和編輯它,它具有非常強大的作用和功能。網(wǎng)站可以通過Robots協(xié)議告訴搜索引擎哪些網(wǎng)站頁面可以抓取,哪些網(wǎng)站頁面不能被抓取。
有的網(wǎng)站優(yōu)化人員可能使用的建站系統(tǒng)自帶Robots.txt文件,有的壓根就沒有Robots.txt文件。這使得爬蟲無法對網(wǎng)站進行爬取索引。自然而然的不會收錄你的網(wǎng)站,所以大家在建站之后一定要記得查看是否存在在Robots.txt以及它的內(nèi)容是否規(guī)范。
二、robots.txt文件設置要求
1、robots.txt文件必須放置在網(wǎng)站根目錄;
2、robots.txt文件名必須小寫。
根據(jù)上面兩點提示我們查看到絕大部分網(wǎng)站的robots.txt文件,如果出現(xiàn)無法訪問的現(xiàn)象,最大可能就是網(wǎng)站根目錄中沒有此文件。
三、常見語法的定義
User-agent:定義搜索引擎。如果想定義所有搜索引擎請用*;Disallow:禁止搜索引擎抓取,“/”表示根目錄,代表網(wǎng)站的所有目錄。Allow: 是允許的意思,這里只簡單的做一下描述,具體的操作寫法請參考百度文庫。
希望以上關于網(wǎng)站優(yōu)化的robots協(xié)議的內(nèi)容對大家有幫助,一般主流的搜索引擎都會遵守robots文件指令,Robots可以用來防止搜索引擎抓取那些我們不想被搜索引擎索引的內(nèi)容。我們可以用它來保護一些隱私的內(nèi)容,屏蔽死鏈接和無內(nèi)容頁面和重復頁面。