如何避免网站中的内容重复

2021-02-27 16:42:50发布

1条回答
天宇老师
1楼 · 2021-02-27 16:53:47.采纳回答

正如我们所指出的,重复的内容可能会以多种方式被创建,从SEO的角度来讲,材料内部的复制需要特殊的技巧才能达到最佳的预期效果。在许多情况下,复制页面对用户和搜索引擎都没有任何价值。如果是这样,那么就要通过调整运行模式彻底解决这个问题,使所有页面仅通过一个网址便可查阅。另外,301重定向原始网址到现在仍在使用的网址(我们会在“重定向”部分进行详细的讲解),可帮助搜索引擎尽快发现你所做的事情,并保留已删除页面的链接权限。


如果这一操作不可行,那么还有其他许多种做法,我们将在6.10节“内容推送和搜索爬虫控制”中进行讲解。下面是一些处理各种情况的简单解决方案汇总:

·使用robots.txt阻止搜索引擎爬虫抓取网站中的复制页面。

使用rel="canonical"链接元素,这是一个仅次于删除复制页面的最佳解决方案。

·使用<meta name="robots" content="noindex">告诉搜索引擎,不要索引复制的页面。


但需要注意的是,如果你使用robots.txt阻止页面被抓取,那么在页面中再使用noindex或nofollow便没有任何意义了——爬虫不能读取页面,所以它永远都不会看到noindex或nofollow,了解了这些工具之后,下面是一些具体的内容重复情境。


HTTPS页面

如果你使用SSL(浏览器和网络服务器之间的通信加密),但未转换整个网站,那么网站中的一部分页面可能会以https:开头,而不是http:。当https:页面中的链接返回网站中其他使用相对链接而非绝对链接的页面时,问题就出现了,因此(例如)链接至主页的链接就变成了https://www.yourdomain.com,而不是http://www.yourdomain.com。

TAG标签:

一周热门 更多>

相关问答