当我们进行网站优化时,我们经常会遇到各种重复页面,这些页面由多种原因引起,但大多数是由程序错误引起的,所以我们选择一个成熟的程序来进行工作站。当你站着时,这将为你省去很多麻烦。
一、301跳转重复链接
每个网站都将不可避免地经历结构或内容调整。当我在做其他网站时,我也经历过这种事情,因为当我建立这个站时,我没有太注意目录结构的优化,这导致了对用户和搜索引擎的不良体检不是很好。所以我决定改变,这个改变需要将旧的url变成一个新的url,但同时确保可以访问旧的url。如果搜索未得到很好的处理,则会导致2个或更多网址指向同一页面。虽然它对用户没有任何感觉,但对于搜索引擎来说这确实是一种糟糕的体验,所以我们此时需要做的是使用301来获取网址以跳转到新网址,都。用户体验还负责搜索引擎,同时还将网址权重转移到新网址。因此,在做网站修改时,一定要注意301跳转的处理。
二、robots.txt屏蔽掉重复的链接
大多数这些问题都是由程序本身的漏洞或伪静态引起的。例如,使用dz论坛程序,但程序本身有许多重复的网址,所以如果它没有处理,那么,它会导致很多重复的页面。我的处理方式是首先将url设置为伪静态,然后使用带有“?”的robots.txt页面。参数和以“.php”结尾的页面。当然,这只能避免大部分重复。如果要对其进行优化,则需要分析网站日志,查看是否存在重复的URL,然后阻止它们。
三、link标签解决重复
我们很多时候,一些内容页面,例如产品页面,在模型或颜色方面只有一些差异,当它们引用产品时,这次你需要规范网址。
需要灵活应用上述三种处理重复的方法。基本上,有必要匹配应用程序以达到效果。