对一个网站来说,搜索引擎是至关重要的,在服务器上哪些东西能够被检查,哪些东西不能够被检查。robot.txt能够向搜索引擎发送“命令”。所以说,写好robots.txt是很重要的。
一、robots.txt是什么
搜索引擎拜访网站时第一个要检查的文件便是robots.txt文件。对每一个站点而言,建立一个robots.txt文件,向蜘蛛程序(spider)宣布指令:某些文件可检查,某些文件不可检查,即指定内容才可被搜索引擎录入。
二、robots.txt文件存放在什么位置,robots.txt文件应当是存放在一个网站的根目录下。
三、robots.txt文件的格式是什么
robots.txt文件里应该包含着有一条或许是多条记载,记载之间以空行分隔开,进行注解时运用#符号。运用Disallow句子对所需拜访的内容进行约束,能够约束搜索引擎拜访网站的目录、部分内容,或许只允许某种特定的搜索引擎进行拜访。
四、关于robots.txt文件的一些注意事项
1、明确robots.txt文件并不是毫无危险肯定安全的,对于一个网络攻击者而言,正是robots、txt文件向其指出了网站上的保密数据在哪里,同时也指明晰网站的目录结构。
2、robots.txt文件的文件名必须小写,robots.txt文件里的内容的大小写是没有办法更改的。
3、有人认为假如某个网站中的全部内容都需要被spider抓取,那么robots.txt文件能够不用存在。这种主意都是存在问题的。假如是要去找robots.txt文件而没有找到时,在服务器中会报出404错误。
4、也有人认为直接设置robots.txt文里的所有内容被spider抓取,这样就能够提高网站的录入百分率。要知道,当spider录入网站脚本程序这样的文件时,不仅不会提高录入率,还会占用一部分的服务器存储空间。
本文来自投稿,不代表重蔚自留地立场,如若转载,请注明出处https://www.cwhello.com/62611.html
如有侵犯您的合法权益请发邮件951076433@qq.com联系删除