多个URL路径指向同一页面可以用robots屏蔽吗?

10.29 21:36:30发布

3条回答
吕布 - 吕布SEO
1楼 · 10.29 21:49:28.采纳回答

你好同学,网站多个路径指向一个叶绵绵,我们可以屏蔽多路径的同一页面

很多网站首页都存在这样一个问题,拿百度举例,百度网址:www.baidu.com,这个网址是大家所熟知并常用的登录方式,因为程序及路径不统一原因,造成首页有二三个路径都被搜索引擎收录,www.baidu.com/index.html,这样就会造成网站路径不统一,那我们是不是需要给网站做一个路径标准化呢?

不同的url路径进入百度首页图片截图

对于这种路径不统一,有两个解决办法

1)不给予链接入口

2)直接用 robots.txt屏蔽掉,直接用 Robots禁止 index.html的首页路径


TAG标签: url
沐颜
2楼-- · 12.22 13:44:38

使用robots.txt文件来屏蔽多个URL路径指向同一页面。

假设您有以下多个URL路径指向同一个页面:

- /page1

- /page2

- /page3

在robots.txt文件中添加以下规则,禁止搜索引擎蜘蛛访问这些路径:

4.png

上述规则将告诉搜索引擎蜘蛛不要访问和抓取以/page1、/page2和/page3开头的URL路径,从而屏蔽多个路径指向同一页面。

注意,这只是一种指导性措施,大多数搜索引擎蜘蛛会尊重这些规则并避免访问被禁止的路径。

然而,无法保证所有的爬虫都会遵守robots.txt规则。因此,除了设置robots.txt规则之外,还建议使用其他技术手段来确保这些URL路径不被访问和索引,例如使用canonical标签或301重定向等。

闻子
3楼-- · 12.30 22:36:25

是的,你可以使用robots.txt来屏蔽多个URL路径指向同一页面。当多个URL路径指向同一页面时,搜索引擎可能会将这些URL视为重复内容,这可能会对网站的搜索引擎优化(SEO)产生负面影响。为了避免这种情况,你可以在robots.txt文件中使用Disallow指令来告诉搜索引擎蜘蛛不要访问这些重复的URL路径。

例如,假设有以下两个URL路径指向同一页面:

https://example.com/page

https://example.com/page?utm_source=google

你可以在robots.txt文件中添加以下指令:

Disallow: /page?utm_source=

这将告诉搜索引擎蜘蛛不要访问带有`utm_source`参数的URL路径,从而避免重复内容被索引。

请注意,这只是给搜索引擎蜘蛛提供一个指示,是否遵守这些指令完全取决于搜索引擎的行为。不同的搜索引擎可能有不同的解析规则,因此设置合适的robots.txt文件需要仔细阅读和理解搜索引擎的规范和文档。


一周热门 更多>