作者:悦然网络工作室
(此处已添加小程序,请到今日头条客户端查看)
经过robots.txt文件,咱们能够直接告诉百度等搜索引擎蜘蛛那些页面能够被抓取,那些页面不可被抓取。不外有时候可能因为某些疏忽,咱们的robots.txt文件可能会存在有些错误,这就有可能引起网站内容不可被正常抓取。因此今天咱们继续给大众分享百度站长平台运用教程,运用平台自带工具检测robots文件。
robots检测
登陆百度站长平台,依次点开“数据统计”-“Robots”。该工具的运用非常简单,直接占“检测并更新”就能够表示当前网站的robots.txt文件是不是正确。同期咱们还能够输入网站链接去测试它是不是准许百度蜘蛛抓取。
不外,近期一段时间,百度站长平台可能在进行守护调节,近期几天该工具都不可正常运用,会显现如上图这般的提示,大众能够过一段时间再来瞧瞧,或运用其它类似的工具来代替。
总结
大都数搜索引擎蜘蛛都会遵循robots协议,即你告诉它能抓取那些内容它就抓取那些,因此咱们必定要重视robots文件是不是写正确,错误的写法会直接影响网站的收录排名。在网站上线之前大众必定要用该工具检测一下,倘若日前暂时用不了,大众亦能够运用第三方平台的robots检测工具
|