一段韶光后,很多网站都会以多个URL的形式涌现碎片化的垃圾代码,而该部门的URL会以不同的形式涌现。在正常情形下,除非它会增加搜索引擎爬行和索引表单的难度,否则您的网站会重复表单,不会形成结果。
因此,通过链接导出丢失的PageRank和类似可能分散在我们尚未确认为重复表单的页面中,导致您首选的主页在谷歌的排名中上升。
识别站点上的重复模式是办理重复模式的第一步,也是最主要的一步。一个大略的方法是从主页中选择一个公共文本代码,搜索文本,然后利用Google的site:query将搜索结果限定在我的网站主页上。通过这种办法,创造不同形式的结果是你办理需求的重复形式。

在办理重复表单之前,必须确保构建了首选的URL URL。您希望此格式利用哪个URL?
在现场外保持同等性。
选择首选网站后,请确保在网站内的所有位置利用这些网站(包括网站舆图材料)。
在冗余和有能力的情形下利用301永久重定向。
如果可以,可以利用301代码重新url重定向重复的url。这可以帮助用户和搜索引擎在访问重复的URL URL时找到您首选的URL。如果你的网站上有不计其数的域名,你可以选择一个域名,利用301将别的域名重定向到一个域名,同时确保它转到一个准确的主页,而不仅仅是域名根程序。
如果网站支持WWW和非WWW长机器名的语音相同,则可以选择个中一个,在Google网站的网站管理员机器中利用首选的域安装,然后停滞适当的重定向。
如果可以,在主页上利用rel=“canonical”。
如果所有或所有的网站都是从URL地址重复查询参数,本机将帮助您见告我们URL中的紧张参数和没有干系参数。有关此机器的详细信息,请参阅网站管理员的新参数求解机,以帮助您减少重复表单。
我们不建议利用robots.txt数据来停滞重复获取。我们建议您不要利用robots.txt数据或其他表单来防止重复访问您的网站。
您可以利用rel=“canonical”链接标记、URL参数来办理机器或301重定向问题。如果完备不鼓励重复访问,搜索引擎必须将部门的URL视为一个独立的网站,由于它们无法区分部门的URL,而是指向相反的网站。
一个更好的办理方案是许可他们停滞抓取,同时利用我们的推举行法将部门的URL清楚地标记为重复表单。如果您许可我们访问部门的URL地址,Google爬虫程序将学习检讨URL以确认它是否可以是一个重复的表单,这可以防止在所有民族的情形下不必要的重复爬网。
为了防止重复的表单仍旧勾引我们爬行和搜索您的网站太多,您还可以调动在谷歌网站管理员的机器爬行进度。