在我们进行网站优化的时候我们经常会遇到处理各种各样的重复页面,造成这些原因有很多,但大多是是由于程序错误而产生,所以我们在做站的时候选择一套成熟的程序很有必要的,这会让你在做站的时候省去很多麻烦。
一、301跳转重复链接
每个网站都难免会经历结构或者内容的调整。在做其他网站的时候也经历了这样的事,因为当初建这个站的时候,不是很注意目录结构的优化,导致后来用户体检不好,对搜索引擎也不是很好。所以决定改,而这一改就就需要把旧的url变成新的,但是同时要保证旧的url可以访问,如果处理不好搜索就会导致有2个或者更多的url指向同一个页面,虽然对用户来讲是感觉不出什么,但是对搜索引擎来说确实个不好的体验,所以这个时候我们需要做的是用301将就得url跳转到新的url,这样既兼顾了用户体验,也照顾了搜索引擎,同时还还能将就得url权重转移到新的url上。所以在进行网站改版的时候一点要注意301跳转的处理。
二、robots.txt屏蔽掉重复的链接
这类问题多半是由于程序本身的漏洞,或者由伪静态而造成的,比如我的姐妹祛痘网论坛,用的是dz论坛程序,但是这个程序本身会有很多重复的url,所以如果处理不好那会造成很多的重复页面,我的处理方式,是先用吧url设置成伪静态的,然后用robots.txt带有“?”参数的页面,和以".php"结尾的页面。当然这只能避免大部分重复,如果你想细化,还需要分析网站日志,看看还有那些重复的url,然后屏蔽掉。
三、link标签解决重复
很多时候我们的,一些内容页比如产品页,只是在型号或者在颜色上有一些区别,而本身所指的是一种商品的时候,这个时候就需要规范url,
以上3种处理重复的方式都需要灵活应用,基本是需要搭配了应用才能达到效果。
本文来自投稿,不代表重蔚自留地立场,如若转载,请注明出处https://www.cwhello.com/76571.html
如有侵犯您的合法权益请发邮件951076433@qq.com联系删除