苏州百度中心,选择苏州菜根谭网络科技,蜘蛛排除robots协议
苏州菜根谭吴中区角直镇百度推广账户托管维护,蜘蛛排除robots协议
搜索引擎蜘蛛如何排除标准robots协议?如果不想搜索引擎的蜘蛛程序抓取网站所有页面或者是网站某类页面,那么我们就需要了解搜索引擎蜘蛛排除的一些标准,这些标准称为robots协议,格式一般是TXT文件。robots.txt文件一般都放置在网站的根目录下,期就说明了网站中的哪些网页是搜索引擎蜘蛛可以索引的,那些页面是搜索引擎蜘蛛不可以索引的。 
  一、Robots协议的代码形式 
  Robots协议是使用了特定的语法才能使爬虫理解文件中的含义。Robots.txt文本文件基本的形式如下: 
  User-agent:* 
  Disallow:/ 
  所有的robot文件中一定要有以上两句语句。 
  第一句User-agent的意思是告诉蜘蛛所对应的是哪里个搜索引擎,“*”是代表所有的蜘蛛; 
  第二句Disallow是告诉搜索引擎蜘蛛那些地方不可以索引,可以针对某一个搜索引擎,也可能针对所有的搜索引擎。“/”是代表所有的目录; 
  提示,在User-agent和Disallow后面都需要加冒号(:)它起的作用是要求搜索引擎时和蜘蛛注意的信息; 
  二、实例讲解 
  1、要求所有搜索引擎不能访问/kehu文件夹下的网页; 
  User-agent:* 
  Disallow:/ kehu/ 
  2、要求百度搜索引擎不能访问/kehu文件平下的所有网页; 
  User-agent: Baiduspider 
  Disallow:/ kehu/ 
  3、要求百度搜索引擎和谷歌搜索引擎都不能访问/kehu文件平下的所有网页 
  User-agent: Baiduspider 
  Disallow:/ kehu/ 
  User-agent: googlebot 
  Disallow:/ kehu/ 
  4、屏蔽所有动态页面被搜索引擎收录 
  User-agent: * 
  Disallow:/*?* 
  5、禁止所有搜索引擎抓取指定的某个页面的 
  User-agent: * 
  Disallow:/指定的某个页面的URL地址 
  提示,搜索引擎蜘蛛访问robots.txt文件时是丛上往下访问,当搜索引擎蜘蛛访问到合适规定的时就会停止读取,并根据规则访问网站。 
  三、各搜索引擎蜘蛛对应的英文名称 
  google蜘蛛:googlebot 
  百度蜘蛛:baiduspider 
  搜狗蜘蛛:sogou spider 
  搜搜蜘蛛:Sosospider 
  yahoo蜘蛛:slurp 
  alexa蜘蛛:ia_archiver 
  msn蜘蛛:msnbot
 