robots.txt标准写法及实例
发布时间:2009/12/11 16:34:44 浏览次
关于robots协议的用法以及robots.txt标准写法的文章:robots.txt最新研究(搜索引擎对sitemap的支持程度),通配符 告诉蜘蛛匹配任意一段字符。如下面一段代码将禁止蜘蛛抓取所有htm文件
Disallow - User-agent,允许所有蜘蛛采集,disallow告诉蜘蛛不要抓取某些文件或目录。如下面代码将阻止蜘蛛抓取所有的网站文件(/代表跟目录):
User-agent: *
Disallow: /
Allow - 告诉蜘蛛应该抓取某些文件。Allow和Disallow配合使用,可以告诉蜘蛛某个目录下,大部分都不抓取,只抓取一部分。如下面代码将使蜘蛛不抓取wp-admin目录下其他文件,而只抓取其中ab下的文件:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/ab
$通配符 -
User-agent: *
Allow: .htm$
*通配符 - 告诉蜘蛛匹配任意一段字符。如下面一段代码将禁止蜘蛛抓取所有htm文件:
User-agent: *
Disallow: /*.htm
根据协议,北京seo:robots.txt协议为:
# Robots.txt file from http://www.lzamai.cn
# All robots will spider the domain
User-agent: *
Disallow:/wp-admin/
sitemap: http://www.lzamai.cn/sitemap.xml
User-agent: *
Disallow: /
Allow - 告诉蜘蛛应该抓取某些文件。Allow和Disallow配合使用,可以告诉蜘蛛某个目录下,大部分都不抓取,只抓取一部分。如下面代码将使蜘蛛不抓取wp-admin目录下其他文件,而只抓取其中ab下的文件:
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/ab
$通配符 -
User-agent: *
Allow: .htm$
*通配符 - 告诉蜘蛛匹配任意一段字符。如下面一段代码将禁止蜘蛛抓取所有htm文件:
User-agent: *
Disallow: /*.htm
根据协议,北京seo:robots.txt协议为:
# Robots.txt file from http://www.lzamai.cn
# All robots will spider the domain
User-agent: *
Disallow:/wp-admin/
sitemap: http://www.lzamai.cn/sitemap.xml
^_^ 美好总是短暂,还想见到你!
- 2009/12/11微信小程序开发中需注意的坑
- 2009/12/11小程序开发选择saas平台的好处是
- 2009/12/11小程序开发这些问题你不得不关注
- 2009/12/11企业想要开发微信小程序?这五个知
- 2009/12/11小程序做电商的六大优势,看了你就