网站robots协议使用教程
robots协议可以说是各种网络爬虫程序与网站之间的一种约定,前段时间etao和京东就360buy内容的抓取闹得像两个孩子(PS:这篇文章写了一段时间了),且不论京东与etao的对错是非,从中我们可以知道robots可以将一些内容不开放给网络爬虫抓取,网络爬虫呢也完全可以不理会robots协议,按照自己的喜好获取你的信息,纵然是需要登录的网站爬虫也能注册账号登录,只是看想与不想。
也许有人说这样看robots协议一点作用也没有了,zhihu也曾讨论过robots是否涉及法律,协议的存在有其一定的约束力,但对于流氓行径连法律都不能完全阻止更别说协议了。
robots协议在遵守其约束的行为中能对SEO帮助很大的,下面看下都能做些什么?
第一:robots能规范网站的URL
网站有两种甚至3种以上地址的时候,该协议就能禁止蜘蛛爬去你不想展示的几种URL,而使网站解决站内重复问题集中权重。
网站有时候为了数据分析会在url接受后添加一些参数以区分来路,这样也是能用该协议解决的
第二:鉴于网站不想通过搜索引擎展示给用户的一些内容,也可以使用 robots.txt解决
第三:控制蜘蛛抓取,以减轻服务器负担,对于内容数量比较大的网站 蜘蛛抓取对于服务器资源的消耗是十分大的。
第四:和nofollow配合控制蜘蛛对网站的充分抓取
第五:robots.txt 支持添加网站地址以促进网站抓取和收录,语法:Sitemap:http://www.snlvyou.com/sitemap.xml
robots.txt文件用法举例
例1.禁止所有搜索引擎访问网站的任何部分 |
User-agent: *Disallow: / |
例2.允许所有的robot访问(或者也可以建一个空文件 “/robots.txt”) |
User-agent: *Allow: /另一种写法是User-agent: *Disallow: |
例3. 仅禁止Baiduspider访问您的网站 |
User-agent: BaiduspiderDisallow: / |
例4. 仅允许Baiduspider访问您的网站 |
User-agent: BaiduspiderAllow:/ |
例5. 禁止spider访问特定目录在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 “Disallow: /cgi-bin/ /tmp/”。 |
User-agent: *Disallow: /cgi-bin/Disallow: /tmp/Disallow: /~joe/ |
例6. 允许访问特定目录中的部分url |
User-agent: *Allow: /cgi-bin/seeAllow: /tmp/hiAllow: /~joe/look |
例7. 使用”*”限制访问url禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。 |
User-agent: *Disallow: /cgi-bin/*.htm |
例8. 使用”$”限制访问url仅允许访问以”.htm”为后缀的URL。 |
User-agent: *Allow:/ .htm$ |
例9. 禁止访问网站中所有的动态页面 |
User-agent: *Disallow: /*?* |
例10. 禁止Baiduspider抓取网站上所有图片仅允许抓取网页,禁止抓取任何图片。 |
User-agent: BaiduspiderDisallow: /*.jpg$Disallow: /* .jpeg$Disallow:/* .gif$Disallow:/* .png$Disallow: /*.bmp$ |
例11. 仅允许Baiduspider抓取网页和。gif格式图片允许抓取网页和gif格式图片,不允许抓取其他格式图片 |
User-agent: BaiduspiderAllow: .gif$Disallow: /.jpg$Disallow:/ .jpeg$Disallow:/ .png$Disallow: /.bmp$ |
例12. 仅禁止Baiduspider抓取。jpg格式图片 |
User-agent: /BaiduspiderDisallow:/ .jpg$ |
robots.txt的写法是否正确可以使用google网站管理员工具后台测试。
SEO研究协会网是国内首家跨部门、跨行业、跨领域,由从事SEO研究、SEO培训、SEO服务的个人和企业团体自发组织创建的纯SEO技术研究平台。
本文来自投稿,不代表重蔚自留地立场,如若转载,请注明出处https://www.cwhello.com/212216.html
如有侵犯您的合法权益请发邮件951076433@qq.com联系删除