欢迎您来到潮人地东莞seo博客,本站专业免费分享多元化的seo网站优化技术干货以及解答seo各种常见问题的博客网站

热门关键词: seo优化 seo推广 seo技术 seo博客 seo网站推广怎么做 seo怎么做 新手做seo怎么做
当前位置:seo博客首页 > seo教程 >

seo博客推广:Robots的作用与写法

发布时间:2023-06-05 16:56:01 文章出处:潮人地东莞seo博客 作者:东莞seo博客 阅读数量:

潮人地东莞seo博客小编下面跟大家分享关于seo博客推广:Robots的作用与写法等问题,希望seo专员在做seo优化的过程中有所帮助,内容仅供参考。

12670℃

大家好,因为昨天晚上帮别人弄电脑弄到比较晚,所以昨天晚上的博文今天上午来发。

大家一定在想,蜗牛SEO  你分享的什么破文章,分享了半天,虽然有点与SEO沾边,但是却没有一个是真实的在做SEO的东西!于是呢,蜗牛今天就给大家开始分享真实的在 “做”SEO的东西。今天蜗牛给大家分享的是入门开始做网站时第一个应该明白的东东,同时也是蜘蛛到一个网站第一个要访问的东东,一定有人猜出来是什么东 东了吧。对,就是Robots的作用与写法。

seo博客相关推荐阅读:seo优化推广:seo框架技术优化交流(seo技术优化技巧)

seo博客推广:Robots的作用与写法

 

下面就听 蜗牛SEO 娓娓道来吧!

一、      什么是robots?有什么用?

“Robots”被一些同行朋友叫作“萝卜丝”,它是搜索引擎的机器协议。全称是“网络爬虫排除协议”。网站通过Robots协议来告诉搜索引擎,哪些页面可以抓取,哪些页面不能够抓取。

因为网站的很多目录如果被抓取是有风险的,或者是因为利益原因不能被抓取,所以需要告诉蜘蛛人你网站允许与不允许的情况。

Robots是放在网站根目录下面,名称为:robots.txt

二、      Robot有哪些指令?

Robots 的指令很简单,只有三个指令,一般我们也会把地图放在上面,方便蜘蛛进站抓完Robots就直接顺着地图爬。

User-agent:seo 网络推广代理 此指令定义了此指令下面的内容对哪些蜘蛛有效。默认所有蜘蛛都允许抓取,如果此指令指定了特定的蜘蛛,那么此指令下跟的内容就对特定蜘蛛有效。

Disallow: 此指令定义了禁止蜘蛛抓取哪些因为,有些人可能认为,做网站当然都希望被抓取了。错,如果是后台或是隐私文件,相信谁都不愿意被抓取的。

Allow: 此指令定义了允许蜘蛛抓些哪些内容,如果是某些内容允许,其它全部拒绝,则可以用这个指令,大多数网站只用到禁止指令。

 

Sitemap: 顾名思义,就是我们常说的站点地图了。在这里我们就不详细介绍站点地图了,蜗牛WEO会在下一节给大家详细介绍  站点地图  的作用与用法。我们把站点地图放在Robots下面,可以方便蜘蛛直接在访问Robots时就访问到你的地图位置。

三、      Robots的写法

1、     User-agent: 是用来定义蜘蛛名的:常见的蜘蛛名包括:Baiduspider、Googlebot、MSNBot、Baiduspider-image、YoudaoBot、Sogou web spider、Sogou inst spider、Sogou spider2、Sogou blog、Sogou News Spider、Sogou Orion spider、Sosospider、PangusoSpider、JikeSpider、yisouspider、EasouSpider。

2、             Disallow

是用来定义什么内容不允许蜘蛛抓取,robots中最难用,而且最常出现问题的就是Disallow指令。或者说整个robots的精髓就在于Disallow,学好了这个指令的用法你就能写出完美的Robots.下面我就把我们最常用到的一些Disallow的用法给大家列出来。

禁止整站被抓取:

Disallow: /

禁止根目录下的woniuseo目录抓取:

Disallow: /woniuseo/

禁止根目录下的woniuseo目录下的单个页面woniuseo.html被抓取:

Disallow:/woniuseo/woniuseo.html

禁止全站含有?的页面被抓取:

Disallow:  /*?*

禁止全站含有woniuseo的页面被抓取:

Disallow:  /*woniuseo*

禁止全站后缀为.aspx的页面被抓取:

Disallow:  /*.aspx$

禁止全站后缀为.jpg的文件被抓取:

Disallow:/*.jpb$

3. Allow:

允许命令一般不单独拿来使用,允许命令一般是先允许某个目录被抓取,然后再禁止其它所有页面被抓取。

允许所有页面被抓取:

Allow: /

允许woniuseo的目录被抓取:

Allow: /woniuseo/

允许抓取.html的页面:

Allow: /*.html$

允许抓取.jpg的图片:

Allow: /*.jpg$

 

四、      Robots的应用

  1. 蜗牛自己的网站的robots文件是这样写的:

User-agent: *Disallow: /wp-admin/Disallow: /wp-content/Disallow: /wp-includes/Disallow: /tag/Disallow: /wp-config.phpAllow: /

sitemap:http://www.woniuseo.com/sitemap.xml

  1. 禁止所有搜索引擎抓取所有页面:

User-agent: *

Disallow: /

这种情况一般用在新站建好还没正式上线,不希望蜘蛛抓取时。

  1. 禁止百度蜘蛛抓取所有页面:

User-agent: Baiduspider

Disallow:  /

淘宝就因为与百度的利益关系,从2008年就禁止百度抓取它所有页面了。

  1. 仅允许百度蜘蛛抓取所有页面:

User-agent: Baiduspider

Allow:  /

User-agent: *

Disallow: /

  1. 禁止所有蜘蛛抓取特定的目录和页面,允许其它所有:

User-agent: *

网站推广和SEO要求Disallow:  /sys-admin/

Disallow:  /aboutwoniu.html

Allow:  /

  1. 仅允许蜘蛛抓取.html的页面与.jpg的图片:

User-agent:*

Allow: /*.html$

Allow: /*.jpg$

Disallow:/

  1. 禁止所有动态的页面的抓取,允许其它:

User-agent: *

Disallow:  /*?*

Allow:  /

  1. 允许某个目录下某个目录被抓取,禁止其它

User-agent: *

Allow: /woniuseo/woniuseo/

Disallow:/woniuseo/

五、      关于robots的网络大事件

  1. 淘宝封杀

2008年9月8日,淘宝网宣布封杀百度爬虫,百度忍痛遵守爬虫协议。因为一旦破坏协议,用户的隐私和利益就无法得到保障,搜索网站就谈不到人性关怀

  1. 京东封杀

2011年10月25日,京东商城正式将一淘网的搜索爬虫屏蔽,以防止一淘网对其的内容抓取。

  1. BE违规抓取Evay

美国BE拍卖公司无视Ebey公司网站 robots协议,终于2000年2月被告上法庭,最终被判Be侵权。

  1. 360搜索无视robots协议

2012年8月,360综合搜索被指违反robots协议,被业内指为“违规”警告。

 

如果大家看完上面的邵阳seo优化网络推广指令还有疑问一话,请大家访问“蜗牛SEO博客”留言或者直接加入  蜗牛SEO博客 的官方群,找博主来看大家的Disallow应该怎么写才对。关于Robots的用法还有很多很多,蜗牛SEO 在这里没法一一列举出来,如果大家对Robots还有疑问。请大家访问“蜗牛SEO博客”。在这里,我会给大家量解答大家的疑问。另外我也会在自己的博客里面分享更多SEO相关的知识,希望能够对大家SEO的道路有一点帮助。

以上是潮人地东莞seo博客跟大家分享关于seo博客推广:Robots的作用与写法等问题,希望能对大家有所帮助,若有不足之处,请谅解,我们大家可以一起讨论关于网站seo优化排名的技巧,一起学习,以上内容仅供参考。

阅读全文
本文标题"seo博客推广:Robots的作用与写法":http://www.cr-seo.com/jc_15244.html
本文版权归潮人地seo博客所有,欢迎转载,但未经作者同意必须在文章页面给出原文连接,否则保留追究法律责任的权利。
标签:
合作伙伴