网站已提交死链后是否还需要设置robots?

04.27 21:13:48发布

3条回答
祸害 - 祸害SEO
1楼 · 04.27 21:14:09.采纳回答

如果已经使用死链提交工具进行提交后,就不需要设置robots,两种方法二选一即可,建议使用死链提交工具,会提升提交的效率。

TAG标签: 死链
沐颜
2楼-- · 12.22 12:57:41

即使您已经提交了死链(404页面)的URL给搜索引擎进行移除,建议仍然保留对这些页面的robots.txt设置

通过在robots.txt文件中指示搜索引擎不要访问已知的死链页面,可以提供额外的指导和保护。尽管您已经通知了搜索引擎删除这些页面,但它们仍然可能被其他网站链接到或被搜索引擎重新发现。通过在robots.txt中添加相关规则,您可以更明确地告诉搜索引擎这些页面应该被忽略,从而避免它们被重新索引。

例如,您可以在robots.txt中添加以下规则:

1.png

这将告诉搜索引擎蜘蛛不要访问和索引指定路径下的死链页面。

请注意,即使设置了robots.txt规则,搜索引擎可能仍会尝试访问这些页面,因为它们需要验证这些页面是否真的无法访问。因此,除了robots.txt之外,还应该确保正确返回适当的HTTP状态码(如404)来指示页面不存在。

闻子
3楼-- · 12.30 22:20:49

网站已提交死链后是否还需要设置robots?

当我们在建设网站的过程中,经常会遇到一种情况,就是页面中存在一些链接指向已经不存在或失效的页面,这就是所谓的死链。对于网站管理者来说,处理死链是一个很重要的工作,因为死链会影响用户体验和搜索引擎优化。

那么,当我们已经提交了死链给搜索引擎并告诉它们这些页面不存在时,是否还需要设置robots.txt文件呢?

我们需要明确robots.txt文件的作用。这个文件是用来告诉搜索引擎爬虫哪些页面可以被抓取,哪些页面不需要被抓取。它是一个文本文件,位于网站的根目录下。

通常情况下,我们会在robots.txt文件中设置Disallow指令,来告诉搜索引擎不要抓取某些页面或目录。但是,对于已经提交死链的页面,搜索引擎已经知道它们不存在了,所以不再需要通过robots.txt来告诉它们不要抓取。

我们需要注意的是,搜索引擎爬虫是按照一定的规则来抓取页面的,它们会定期重新抓取已经存在的页面,以保持索引的准确性。所以,即使我们没有设置robots.txt文件,搜索引擎也会重新抓取已存在的页面,以及更新它们的索引。

那么,对于已提交死链的页面,我们应该做些什么呢?

我们可以考虑将这些死链页面进行重定向。通过301重定向,将这些页面指向一个存在的页面,这样既可以解决死链问题,又可以保持用户体验和搜索引擎优化。

我们还可以在网站的404页面上提供一些有用的信息,比如导航链接、搜索框等,帮助用户快速找到他们想要的内容。这样,即使用户访问了死链页面,也能够通过404页面找到其他相关页面。

总之,对于已经提交死链的页面,我们不需要再通过robots.txt文件来告诉搜索引擎不要抓取。相反,我们应该采取一些措施,如重定向和优化404页面,来改善用户体验和搜索引擎优化。这样,我们的网站就能更好地为用户提供有用的信息,吸引更多的访问者。


一周热门 更多>