限制搜索引擎爬虫抓取网站内容
搜索引擎爬虫经常抓取收录网站在通常情况下应该是有利于网站对外推广传播的,但很遗憾,一些技术比较“烂”的搜索爬虫我们甚至可以认为它们更像流氓、无赖.比如,某些爬虫本身技术就存在缺陷,结果导致一次抓取小网站的时候能把整个网站给拖垮(不要告诉我这样的事情没有发生过),另外还有像采用云服务托管的网站,比如SAE,流量和计算量都是要收费的。尼玛一个本来就没有多少流量的搜索引擎,天天过来抓内容,带来少的可怜的流量跟花去的流量费用对比,简直让人心懂,鉴于此类原因,本人做出一个艰难的决定,封杀某些搜索引擎。
首先我们大概了解一下“robots.txt”文件
什么是robots.txt文件?
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做 robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取范围。您可以在您的网站中创建一个robots.txt,在文件中声明 该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。
robots.txt文件的格式
“robots.txt”文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
“<field>:<optionalspace><value><optionalspace>”。
在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:
User-agent:
该项的值用于描述搜索引擎robot的名字。在”robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受 到”robots.txt”的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效, 在”robots.txt”文件中,”User-agent:*”这样的记录只能有一条。如果在”robots.txt”文件中,加入”User- agent:SomeBot”和若干Disallow、Allow行,那么名为”SomeBot”只受到”User-agent:SomeBot”后面的 Disallow和Allow行的限制。
Disallow:
该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。例如”Disallow:/help”禁止robot访问/help.html、/helpabc.html、/help /index.html,而”Disallow:/help/”则允许robot访问/help.html、/helpabc.html,不能访问 /help/index.html。“Disallow:”说明允许robot访问该网站的所有url,在”/robots.txt”文件中,至少要有一 条Disallow记录。如果”/robots.txt”不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。
Allow:
该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如”Allow:/hibaidu”允许robot访问/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页 同时禁止访问其它所有URL的功能。
需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。
使用”*”和”$”:
Baiduspider支持使用通配符”*”和”$”来模糊匹配url。
“$” 匹配行结束符。
“*” 匹配0或多个任意字符。
禁止指定搜索引擎爬虫
User-agent: Baiduspider
Disallow: /
只允许指定搜索引擎爬虫
User-agent: Baiduspider
Disallow:
User-agent: Googlebot
Disallow:
User-agent: *
Disallow: /
向搜索引擎提交Site Map
Sitemap: http://www.google.com/sitemap.xml
robots.txt文件用法举例:
例1. 禁止所有搜索引擎访问网站的任何部分 | User-agent: * Disallow: / |
例2. 允许所有的robot访问 (或者也可以建一个空文件 “/robots.txt”) |
User-agent: * Disallow: 或者 User-agent: * Allow: / |
例3. 仅禁止Baiduspider访问您的网站 | User-agent: Baiduspider Disallow: / |
例4. 仅允许Baiduspider访问您的网站 | User-agent: Baiduspider Disallow:User-agent: * Disallow: / |
例5. 禁止spider访问特定目录 在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 “Disallow: /cgi-bin/ /tmp/”。 |
User-agent: * Disallow: /cgi-bin/ Disallow: /tmp/ Disallow: /~joe/ |
例6. 允许访问特定目录中的部分url | User-agent: * Allow: /cgi-bin/see Allow: /tmp/hi Allow: /~joe/look Disallow: /cgi-bin/ Disallow: /tmp/ Disallow: /~joe/ |
例7. 使用”*”限制访问url 禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。 |
User-agent: * Disallow: /cgi-bin/*.htm |
例8. 使用”$”限制访问url 仅允许访问以”.htm”为后缀的URL。 |
User-agent: * Allow: .htm$ Disallow: / |
例9. 禁止访问网站中所有的动态页面 | User-agent: * Disallow: /*?* |
例10. 禁止Baiduspider抓取网站上所有图片 仅允许抓取网页,禁止抓取任何图片。 |
User-agent: Baiduspider Disallow: /*.jpg$ Disallow: /*.jpeg$ Disallow: /*.gif$ Disallow: /*.png$ Disallow: /*.bmp$ |
例11. 仅允许Baiduspider抓取网页和.gif格式图片 允许抓取网页和gif格式图片,不允许抓取其他格式图片 |
User-agent: Baiduspider Allow: /*.gif$ Disallow: /*.jpg$ Disallow: /*.jpeg$ Disallow: /*.png$ Disallow: /*.bmp$ |
例12. 仅禁止Baiduspider抓取.jpg格式图片 | User-agent: Baiduspider Disallow: /*.jpg$ |
常见国内搜索引擎蜘蛛程序名称 (User-agent List)
- 百度 www.baidu.com:Baiduspider
- 谷哥 www.Google.com:Googlebot
- 雅虎 www.yahoo.com.cn:Yahoo Slurp
- 搜狗 www.sogou.com:Sogou Push Spider
- 有道 www.yodao.com:YodaoBot
- MSN www.msn.com:msnbot
- sina 爱问 iask.com:iaskspider
注意事项:
- robots.txt文件名必须全部小写,不要为追求个性写成RoboTs.txt等形式;
- robots.txt文件只能放在网站根目录下面,其它位置无效;
- robots.txt文件内容对大小写敏感,尤其是包含网址的部分。虽说很多搜索引擎对网址之外的部分没有严格的大小写限制,但是从搜索引擎的严谨性和个人对网站的要求方面来说,还是建议区分大小写;
- robots.txt文件只是和搜索引擎的一个“君子协议”,并不意味着每个搜索引擎都严格遵守robots.txt的规则,按照你的意图来抓取网页,要清楚,你的网站在搜索引擎面前没有什么“秘密”;
- 要检查robots.txt文件是否达到了预期的效果,可以通过谷歌网站站长工具中的robots.txt工具测试;
在线检测工具:
可通过在线检测工具查看robots.txt文件格式是否正确。
http://tool.motoricerca.info/robots-checker.phtml
参考资料:
http://www.robotstxt.org/
http://www.xp-sem.com/what-is-robots-txt-role-writing/
http://bbs.28tui.com/thread-106187-1-1.html