阅读477 返回首页    go 其它帮助


robots.txt文件用法举例

例1. 禁止所有搜索引擎访问网站的任何部分 
下载该robots.txt文件 User-agent: * 
Disallow: /
例2. 允许所有的robot访问
(或者也可以建一个空文件 "/robots.txt")

User-agent: *
Disallow: 
或者
User-agent: *
Allow: /
例3. 仅禁止Baiduspider访问您的网站 User-agent: Baiduspider
Disallow: /
例4. 仅允许Baiduspider访问您的网站 User-agent: Baiduspider
Disallow: 

User-agent: *
Disallow: /
例5. 禁止spider访问特定目录
  在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
例6. 允许访问特定目录中的部分url
User-agent: *
Allow: /cgi-bin/see
Allow: /tmp/hi
Allow: /~joe/look
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
例7. 使用"*"限制访问url
   禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
User-agent: *
Disallow: /cgi-bin/*.htm
例8. 使用"$"限制访问url
   仅允许访问以".htm"为后缀的URL。 User-agent: *
Allow: .htm$
Disallow: /
例9. 禁止访问网站中所有的动态页面
User-agent: *
Disallow: /*?*
例10. 禁止Baiduspider抓取网站上所有图片
   仅允许抓取网页,禁止抓取任何图片。 User-agent: Baiduspider
Disallow: /*.jpg$
Disallow: /*.jpeg$
Disallow: /*.gif$
Disallow: /*.png$
Disallow: /*.bmp$
例11. 仅允许Baiduspider抓取网页和.gif格式图片
   允许抓取网页和gif格式图片,不允许抓取其他格式图片 User-agent: Baiduspider
Allow: /*.gif$
Disallow: /*.jpg$
Disallow: /*.jpeg$ 
Disallow: /*.png$
Disallow: /*.bmp$
例12. 仅禁止Baiduspider抓取.jpg格式图片 User-agent: Baiduspider
Disallow: /*.jpg$

最后更新:2011-05-25 21:06:47

  上一篇:go robots.txt文件参考资料
  下一篇:go robots.txt文件URL匹配举例