作为站长网站被K这种话你肯定听过很多次,由于百度算法调整的原因还有一些其他因素,网站首页被k这种事竟然变得常见了,当网站被k了我们通常首先要做的就是寻找原因,根据导致的原因做出应对的方法,那么我们怎么才能知道网站被k呢,一般在搜索引擎输入搜索指令 搜索结果显示是:很抱歉,没有找到与“之” 相关的网页;或者用站长工具查询,收录那一栏显示“0”,如果是曾经被收录过的网站出现这样的情况,我们就叫做这个网站被K了。要只是首页消失,就称为网站首页被K。
到目前没有一个全能的办法来解决网站被封的问题。所以我们采用排除法来对付这个问题。查看问题出在哪里,制定相应的对策来解决它,让搜索引擎重新认识,重新收录。
一、近期网站修改记录
seo的每一个重要方案的上线迭代时间点,都需要进行记录,作为之后对问题的排查和线索发现的依据,同时建立方案到效果的量化关系,与K站相关的常见几种问题:
1)、导致错误链接的修改
2)、影响站内结构的调整
3)、过度优化的内部链接调整
4)、TDK频繁调整
5)、JS等代码实现的桥页
6)、低质量内容大量镜像、采集和重复
二、网站日志分析
从日志中,可以发现很多的问题,分别如下:
1)、大量5xx错误,尤其500错误,说明服务器问题,导致无法提供稳定的抓取响应,需要运维介入解决;
2)、大量4xx错误,尤其404错误最常见,需要干掉站内页面中存在的死链接,屏蔽掉SE爬虫发现404页面的入口;
3)、大量301循环跳转,会导致SE爬虫陷入抓取死循环;
4)、抓取频率、抓取量降低,需要注意服务器响应时间和响应速度是否有下降作为切入点;
5)、抓取停留时间变少,尤其相对历史水平大于30%,并同时存在抓取页面收录震荡,需要改善页面质量。
三、robots.txt写法是否正确
robots.txt文件用来阻止搜索引擎蜘蛛抓取某些目录或某些文件,虽然这个功能很有用,但是很容易出错。如果你的robots.txt文件设置有问题,搜索引擎蜘蛛就没办法抓取你的网站了。正常设置和有错的设置可能差别非常微小,要多次检查,确保无误。
四、关键词大量叠加
不了解SEO的人们,往往把网站的标题写得非常长。在title标签、keywords标签、description标签里,往往堆积着大量的关键词。也有部分好像了解seo优化的人,喜欢在网页上(一般是页脚)毫无理由得摆放良多关键词。这是网站被封非经常见的一个因素。
五、群发、群建外链
我们知道群发外链被发现的根据是,同一时间网站突然增加了大量的外链,这些外链所在的网页内容基本一致,包括锚文本链接和文章内容。群建,除了与群发一样的判定尺度外,还有一点是,往往IP段一样。博客群建假如过多,则可能被当做群发,由于有和群发类似的特征,防患于未然。一旦被K,没有解决办法。
六、外部因素
还有一些外部因素,很容易会被忽略的,如:
1)、被巨量刷某类关键词流量,有违禁词、动态页等多种,并同时伴有外链存在,通常禁止掉此类页面抓取即可 。
2)、被外部链接攻击,通常新站会遭遇,尤其存在动态页;
3)、中小站点被镜像;
4)、被挂马、注入赌博、成人、违法等页面信息,要定期检查网站安全性;
做网站最担心无非就是被降权了,但是想完全避免是不可能的,毕竟流量是百度给的,所以我们需要做的就是平时多和同行交流,提高自己的seo技术,吸取别人好的经验和教训,不要把大量的时间都花在研究别人为什么做的垃圾站却排名靠前上,与其这样不如多总结多提高,提升访客的数量。
本文来自投稿,不代表重蔚自留地立场,如若转载,请注明出处https://www.cwhello.com/289314.html
如有侵犯您的合法权益请发邮件951076433@qq.com联系删除