当前位置: 沐风博客 >> SEO算法 >>为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件 「 59元购买SEO文章编辑教程

为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件

内容导读:官方解释:在百度搜索资源平台使用robots工具进行更新,并及时关注文件生效时间,若3天后还未生效,建议提供具体问题截图和具体的URL在反馈中心反馈,以便排查问题。另外开发者自查robots.txt文件是否书写错误,robots文件往往放置在根目录下,包含一条或更多的记录,这些记录通过空行分开。

问题:为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件?

回答:官方解释:在百度搜索资源平台使用robots工具进行更新,并及时关注文件生效时间,若3天后还未生效,建议提供具体问题截图和具体的URL在反馈中心反馈,以便排查问题。另外开发者自查robots.txt文件是否书写错误,robots文件往往放置在根目录下,包含一条或更多的记录,这些记录通过空行分开。

从百度方面的解释可以看到,理论上百度搜索对于robots文件的反应是比较快的,基本3天左右就能生效。

但要注意,这只是理论上的!就目前百度相关的工具来看,似乎很多都会出现延迟的情况。当然,不管具体什么原因,作为普通的站长,我们都不能去改变什么。能做的就是进行自我排查,在确定操作无误之后,再按照百度的要求,提供相关资料进行反馈。

还有沐风SEO建议,我们在做SEO的时候,要把重心放在站内优化上,坚持内容为王,提供优质的网站内容和用户体验。百度方面提供的这些工具,的确能够解决某些问题,但改变不了根本。

比如我们不能把网站收录寄希望于百度搜索的快速收录,虽然快速收录提供了快速蜘蛛抓取的通道,但真正影响到页面收录的还是页面的质量度。所以,我们需要把网站真正的做好,再通过这些工具进行辅助提升,这样相辅相成才是网站优化的正确方式。


本文标签:robots
这篇关于“为什么robots文件更新了很久蜘蛛还在抓取被禁止的文件”的文章 已帮助 562 人,希望也能帮到你!

沐风工作室

本站内容大部分由沐风博客原创,少部分内容来源于网络,如有侵权请与我们联系,我们会及时删除!
责任编辑:沐风 | 发布时间:2021年04月27日07点45分00秒 | 本文永久地址为 /seo/2683.html

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

沐风博客

SEO编辑教程

SEO百科词条

沐风博客,更新包含SEO培训教程、网站运营及网络推广等互联网资讯

线下SEO培训地址:广州.厦滘 | 线上SEO培训不受地域限制