网页已提交死链后,是否需要设置robots?

11.10 19:08:31发布

3条回答
石头人 - 石头人
1楼 · 11.11 15:08:06.采纳回答

你好同学,一般在百度搜索资源去做了死链接提交了,坐等处理就好了,就不需要在去添加robots协议了,但是你暂时添加也不会有什么影响了。

TAG标签: 死链
沐颜
2楼-- · 12.22 13:14:11

当您提交了死链(404页面)给搜索引擎进行移除后,通常并不需要通过robots.txt文件再次禁止这些页面。

一旦搜索引擎收到您的请求并更新了索引,它们会逐渐将这些死链页面从搜索结果中移除。这意味着搜索引擎会意识到这些页面不存在,并不再将其作为有效的搜索结果显示。

然而,如果您仍然希望通过robots.txt文件明确告知搜索引擎蜘蛛避免访问这些死链页面,您可以在robots.txt中添加相关规则。这样做的目的是为了额外的保护和指导,以防止搜索引擎蜘蛛无意间访问到这些页面。

例如,您可以在robots.txt中添加以下规则:

2.png

这将告诉搜索引擎蜘蛛不要访问和索引指定路径下的死链页面。

注意,这只是一种额外的措施,确保搜索引擎蜘蛛不会访问到已知的死链页面。虽然大多数搜索引擎蜘蛛会尊重这些规则,但并不能保证所有的爬虫都会遵守。

因此,除了设置robots.txt规则之外,还应该确保正确返回适当的HTTP状态码(如404)来指示页面不存在。

闻子
3楼-- · 12.30 22:32:09

如果你的网页已经提交了死链(404错误页面)给搜索引擎,一般情况下并不需要专门设置robots.txt文件来禁止搜索引擎蜘蛛访问这些死链。搜索引擎会在爬取网页时自动检测到这些错误页面,并将其从索引中删除。

然而,如果你希望进一步指示搜索引擎蜘蛛避免访问已知的死链,可以在robots.txt文件中使用Disallow指令来明确告诉搜索引擎蜘蛛不要访问这些页面。这样做的好处是可以帮助搜索引擎更快地了解网站的有效内容,并提高爬取效率。

例如,如果你有一些已知的死链页面,你可以在robots.txt文件中添加以下指令:

Disallow: /path/to/dead-link.html

这将告诉搜索引擎蜘蛛不要访问该死链页面。请注意,如果你的网站上有很多死链页面,逐个在robots.txt中添加可能会比较繁琐,因此只有当你想要明确指示搜索引擎蜘蛛避免访问特定死链时才需要进行设置。

总结起来,虽然不需要设置robots.txt文件来禁止访问已知的死链,但如果你想进一步指示搜索引擎蜘蛛避免访问这些死链,可以在robots.txt中使用Disallow指令。

一周热门 更多>