Robotstxt放在服务器下面,通知搜索引擎哪些页面或栏目不能抓取进入。如果robots协议被恶意或不小心修改,搜索引擎蜘蛛无法正常抓取部分页面,可能导致网站入口减少。
如果有人黑了服务器,在网站程序中植入了其他恶意代码或其他文件,做了一些快照绑架等不当操作,网站就呈现出很多含有非法内容的页面。没几天,网站的输入量就会直线下降。
SEOer可以在百度后台进行抓取测试,通过模仿百度蜘蛛来检查抓取是否正常。总之,它可以使用一些软件来分析日志。比如loghao、光年软件等网上的东西,用起来非常简单方便,可以检查日志是否正常。
如果网站入口量急剧下降,那么你可以去百度找资源渠道回应。如果有轻微下降,还是不要反应的好。先看情况再说,如果网站最近改版了,特别是网站的网址改了,没有做301跳转,百度后台没有添加网站改版规则。在这种情况下,入口量的突然下降会变得非常正常。
如果网站最近或者一直基本没有原创内容,都是不怀好意的收藏,原创份额很低,也许是飓风算法20造成了这种情况。可以考虑弄一些原创文章,不管是公司内部人员写的还是网络写手写的,然后适当转载一些高质量的文章,但是切记不要不怀好意的收藏,尤其不要拼接。
本文来自投稿,不代表重蔚自留地立场,如若转载,请注明出处https://www.cwhello.com/89842.html
如有侵犯您的合法权益请发邮件951076433@qq.com联系删除