长沙网站建设|长沙网站制作|长沙牛企网络


联系牛企

当前位置:牛企主页 > 新闻中心 > 常见问题 >

robots文件作用与写法

作者:网站建设    来源:网站制作    

首先我们应该明白Robots.txt文件是网站与搜索引擎之间的一种协议,当搜索引擎来抓取你网站的时候,首先会看你网站根目录的Robots文件,搜索引擎会根据你写的这个协议来抓取你的网站内容,当然抓取的页面都是由你写的Robots来确定的。

Robots常见的规则

1、User-agent指令: 此指令定义了此指令下面的内容对哪些蜘蛛有效。默认所有蜘蛛都允许抓取,如果此指令指定了特定的蜘蛛,那么此指令下跟的内容就对特定蜘蛛有效。

2、Disallow指令: 指禁止搜索引擎抓取的路径​,也就是说此指令定义了禁止蜘蛛抓取哪些内容

3、Allow指令: ​允许搜索引擎收录的地址,此指令定义了允许蜘蛛抓些哪些内容,如果是某些内容允许,其它全部拒绝,则可以用这个指令,大多数网站只用到禁止指令。

Robots的基本概念与作用

搜索引擎使用spider程序来访问网站里面的内容,但是你的Robots文件可以告诉它那个页面可以访问,那个页面不可以访问,有些人认为网站当然容许抓取访问了,错,一些网站后台隐私文件、js、死链这些都是需要屏蔽的。

User-agent的用法示例

此指令是用来定义蜘蛛名的:常见的蜘蛛名包括:Baiduspider、Googlebot、MSNBot、Baiduspider-image、YoudaoBot、Sogou web spider、Sogou inst spider、Sogou spider2、Sogou blog、Sogou News Spider、Sogou Orion spider、Sosospider、PangusoSpider、JikeSpider、yisouspider、EasouSpider。

Disallow的用法示例

1、禁止整站被抓取:

Disallow: /

2、禁止根目录下的woniuseo目录抓取:

Disallow: /woniuseo/

3、禁止根目录下的woniuseo目录下的单个页面woniuseo.html被抓取:

Disallow:/woniuseo/woniuseo.html

4、禁止全站含有?的页面被抓取:

Disallow:  /*?*

5、禁止全站含有woniuseo的页面被抓取:

Disallow:  /*woniuseo*

6、禁止全站后缀为.aspx的页面被抓取:

Disallow:  /*.aspx$

7、禁止全站后缀为.jpg的文件被抓取:

Disallow:/*.jpb$

Allow的用法示例

1、允许所有页面被抓取:

Allow: /

2、允许woniuseo的目录被抓取:

Allow: /woniuseo/

3、允许抓取.html的页面:

Allow: /*.html$

4、允许抓取.jpg的图片:

Allow: /*.jpg$

【牛企网络】专注于高品质网站建设,网站制作服务,专业从事做网站业务,营销型网站建设、网站制作,网站设计,网站推广,网络营销,网站优化等业务。公司奉行“优化服务,求实创新”的运营宗旨,不断追求技术领先、服务领先、业绩领先的发展目标!服务热线188-0740-2334

加牛企微信
送网络营销宝典
牛企二维码

关键词: 网站建设公司 | 网站建设 | 网站制作 | 网站设计 | 网络推广 | 网络公司 | 网站优化 | SEO| www.csniuqi.com|
Copyright 2008-2015 版权所有 长沙牛企文化传播有限公司 湘ICP备19012123号-1 湘ICP备19012123号-6 地址:湖南市岳麓区银盆岭中联重科17栋二单元504

【牛企网络】专注于高品质网站建设服务,专业从事网站建设、网站制作、网站设计、企业网站建设、手机网站建设、营销型网站建设等。为做网站客户提供优质的价格保证!网络公司

在线客服系统