目前大部分网站都是开源程序建站,博客站点有WP,z-blog,商业站点有dede,shopex,论坛有discuz,php,在蜘蛛爬行方面 已经有很大进步,利于seo优化和蜘蛛爬行。但是很多站长在建站之初并没有做好栏目和版面的规划,路径太长太深,首页的具体不止三次点击,爬虫不会爬那么深。不断的增加删除页面,造成网站大量的404,降低蜘蛛的爬行兴趣,同样会影响网站的权重。
加上后期的修改代码,调整插件,插件调整会好点,就算出错也可以及时回复,只要不是删除。但是代码不一样,如果你修改header部分的次数过多, 幅度过大,都会被搜索引擎认为是一个新站,会造成之前已经收录页面遭到删除,爬虫的数量和次数也会大大降低。更换主题模板也是一样,尽量一次敲定,后期的 每一次修改都会造成不必要的权重损失。
也有部分网站是设计师设计的,这类网站一般都会经过多次调试无误,才会发布上线,这并不意味着没有问题。外观上漂亮的flash,iframe页面,却没有任何实用价值,蜘蛛几乎从不爬行,所以收录只能是0。上次听国平老师讲课,印度一个排名前三的购物网站,就是因为网站的代码问题,导致30000人注册,只有不到1%的成功率,而他们在没招聘seo之前,根本不知道这个事情。这就需要设计师在网站上线之后,还要协同seo做好追踪调试, 链接问题,死循环,蜘蛛陷阱等问题的及时改进。希望以上信息能够很好的帮助到各位站长。
本文来自投稿,不代表重蔚自留地立场,如若转载,请注明出处https://www.cwhello.com/272897.html
如有侵犯您的合法权益请发邮件951076433@qq.com联系删除