站长的工作是设计精美的网站,为大众展现网站丰富多彩的内容。当然,我们也希望精心设计的网站获得理想的排名,这就要求我们去研究搜索引擎排名规律,最大程度的获得机会展现给客户。然而,搜索引擎种类很多,有时候,我们对某一种搜索引擎的排名很好,却在另外的搜索引擎上面获得不到一样的排名,原因是各个搜索引擎规则不一样。为此,有人复制出相同的内容以应付不同搜索引擎的排名规则。然而,一旦搜索引擎发现站内有大量“克隆”的页面,就会给以惩罚,不收录这些重复的页面。另一方面,我们网站的内容属于个人私密文件,不想暴露在搜索引擎中。这时,robot.txt就是为了解决这两个问题。
  一、搜索引擎和其对应的user-agent
  那么,目前有哪些搜索引擎和其对应的user-agent呢?下面,我列出了一些,以供参考。
  搜索引擎user-agent
  altavistascooter
  baidubaiduspider
  infoseekinfoseek
  hotbotslurp
  aolsearchslurp
  excitearchitextspider
  googlegooglebot
  gotoslurp
  lycoslycos
  msnslurp
  netscapegooglebot
  northernlightgulliver
  webcrawlerarchitextspider
  iwonslurp
  fastfast
  directhitgrabber
  yahoowebpagesgooglebot
  looksmartwebpagesslurp
  二、robots基本概念
  robots.txt文件是网站的一个文件,它是给搜索引擎蜘蛛看的。搜索引擎蜘蛛爬行道我们的网站首先就是抓取这个文件,根据里面的内容来决定对网站文件访问的范围。它能够保护我们的一些文件不暴露在搜索引擎之下,从而有效的控制蜘蛛的爬取路径,为我们站长做好seo创造必要的条件。尤其是我们的网站刚刚创建,有些内容还不完善,暂时还不想被搜索引擎收录时。
  robots.txt也可用在某一目录中。对这一目录下的文件进行搜索范围设定。
  几点注意:
  网站必须要有一个robot.txt文件。
  文件名是小写字母。
  当需要完全屏蔽文件时,需要配合meta的robots属性。
  三、robots.txt的基本语法
  内容项的基本格式:键:值对。
  1)user-agent键
  后面的内容对应的是各个具体的搜索引擎爬行器的名称。如百度是baiduspider,谷歌是googlebot。
  一般我们这样写:
  user-agent:
  表示允许所有搜索引擎蜘蛛来爬行抓取。如果只想让某一个搜索引擎蜘蛛来爬行,在后面列出名字即可。如果是多个,则重复写。
  注意:user-agent:后面要有一个空格。
  在robots.txt中,键后面加:号,后面必有一个空格,和值相区分开。
  2)disallow键
  该键用来说明不允许搜索引擎蜘蛛抓取的url路径。
  例如:disallow:/index.php禁止网站index.php文件
  allow键
  该键说明允许搜索引擎蜘蛛爬行的url路径
  例如:allow:/index.php允许网站的index.php
  通配符
  代表任意多个字符
  例如:disallow:/.jpg网站所有的jpg文件被禁止了。
  结束符$
  表示以前面字符结束的url。
  例如:disallow:/?$网站所有以?结尾的文件被禁止。
  四、robots.txt实例分析
  例1.禁止所有搜索引擎访问网站的任何部分
  user-agent:
  disallow:/
  例2.允许所有的搜索引擎访问网站的任何部分
  user-agent:
  disallow:
  例3.仅禁止baiduspider访问您的网站
  user-agent:baiduspider
  disallow:/
  例4.仅允许baiduspider访问您的网站
  user-agent:baiduspider
  disallow:
  例5.禁止spider访问特定目录
  user-agent:
  disallow:/cgi-bin/
  disallow:/tmp/
  disallow:/data/
  注意事项:1)三个目录要分别写。2)请注意最后要带斜杠。3)带斜杠与不带斜杠的区别。
  例6.允许访问特定目录中的部分url
  我希望a目录下只有b.htm允许访问,怎么写?
  user-agent:
  allow:/a/b.htm
  disallow:/a/
  注:允许收录优先级要高于禁止收录。
  从例7开始说明通配符的使用。通配符包括(contentquot;结束符;任意符)
  例7.禁止访问网站中所有的动态页面
  user-agent:
  disallow:/?
  例8.禁止搜索引擎抓取网站上所有图片
  user-agent:
  disallow:/.jpg$
  disallow:/.jpeg$
  disallow:/.gif$
  disallow:/.png$
  disallow:/.bmp$
  其他很多情况呢,需要具体情况具体分析。只要你了解了这些语法规则以及通配符的使用,相信很多情况是可以解决的。
  五、metarobots标签
  meta是网页html文件的head标签里面的标签内容。它规定了此html文件对与搜索引擎的抓取规则。与robot.txt不同,它只针对写在此html的文件。
  写法:
  。
  …里面的内容列出如下
  noindex-阻止页面被列入索引。
  nofollow-阻止对于页面中任何超级链接进行索引。
  noarchive-不保存该页面的网页快照。
  nosnippet-不在搜索结果中显示该页面的摘要信息,同时不保存该页面的网页快照。
  noodp-在搜索结果中不使用opendirectoryproject中的描述信息作为其摘要信息。
  六、robots的测试
  在谷歌站长工具中,添加网站后使用左侧的抓取工具的权限,就可以对网站的robots进行测试了。
  robots.txt和mtearobots的内容就介绍到这里,相信大家对robot已经有了比较详细的了解。使用好robots对于我们网站的seo有着重要作用,做的好,可以有效的屏蔽那些我们不想让搜索引擎抓取的页面,也就是对用户体验不高的页面,从而将有利于关键词排名的内页充分展示个客户,获得搜索引擎对站内页面的权重,从而有利于我们将关键词排名做的更好。
广告公司网站建设要点总结!优化英文网站从哪些方面入手?自己建网站教程,网站是怎么组成的?网站制作之赢在标题免费网站收录慢?可能是因为以下原因SEO排名的关键要素(了解和优化技巧,提升网站在搜索引擎中的排名)404页面是什么!404页面怎么设置整理几个影响网站优化排名的因素