但您仍然必须选择哪一个作为搜索引擎在搜索引擎结果中显示的主要页面。备用链接标签替代链接标签与规范链接标签非常相似。尽管它主要用于国际或多语言SEO。规范链接标签会移除所有其他重复内容,而备用链接标签则仍会索引所有页面,但这有助于引导 Google 根据各个国家/地区的 Google 版本选择最佳结果。此外,它还能消除 Google 将页面视为重复内容时可能遇到的问题。
总而言之,这里有一个简单的指南
说明在不同的重复内容情况 电报数据库 下何时使用哪种类型的重定向:
- 备用链接标签
- 国际页面,多语言页面,适用于不同的国家。
- 规范链接标签
- 多个类别和子类别,类别路径不同,但内容相同。
示例: http: - 跟踪代码和会话 ID,主要是因为重定向有时会干扰跟踪代码和会话的功能。
示例: - 由于某些 CMS
平台的创建方式不同,变量顺序也有所不同。
例如:
- 多个类别和子类别,类别路径不同,但内容相同。
- 301重定向
- 重定向不会影响用户体验的 触达真正值得你投入时间的潜在客户情况,例如 www 和非 www、索引文件、尾部斜杠、主机 IP 地址。
示例: - 域名变更,以及不再存在的页面的 URL 变更。
例如: http:-
最佳使用场景可能是存档文章列表
- 例如博客。其中,单个博客文章 新闻 美国 的主 URL 或永久链接可能包含重复发布的内容,这些内容可能出现在按日期存档视图、类别视图、作者视图、标签主题视图,或博客主页上旧博客文章的分页中。您无法真正进行 301 重定向,也无法使用规范链接标签,因为这些页面可能列出了多篇博客文章,您必须最终确定 301 重定向的目标位置或规范链接标签的指向位置。因此,我会尝试使用 Meta Robots 标签、NoIndex 和 Follow,希望所有链接仍然有效。
-
- 重定向不会影响用户体验的 触达真正值得你投入时间的潜在客户情况,例如 www 和非 www、索引文件、尾部斜杠、主机 IP 地址。
- Robots.txt
- 我认为不再需要使用 robots.txt 来处理重复内容问题。自然链接太宝贵了,不能失去。只需使用 robots.txt 来真正屏蔽那些根本不需要索引的内容,无论是否重复。
免责声明:虽然我的示例包括 PubCon 和 CSI Miami,但这两个网站都没有重复内容。图片仅供参考。至于 这些页面也没有重复内容。
布雷特·塔布克 (Brett Tabke)的照片由安迪·比尔 (Andy Beal) 拍摄。《犯罪现场调查:迈阿密》(CSI Miami) 中大卫·卡鲁索的照片由哥伦比亚广播公司电视台/ Alliance Atlantis拍摄。丹尼·沙利文 (Danny Sullivan) 的照片由SMX/3rd Door Media拍摄。本博文中提到的所有其他品牌均为其各自所有者的商标或注册商标。