全网整合营销服务商

电脑端+手机端+微信端=数据同步管理

免费咨询热线:15617636856

郑州网站建设

当前位置: 首页 > 新闻资讯 > 118bet金博宝 >>robots文件的作用?robots文件怎么写?

robots文件的作用?robots文件怎么写?

作者:郑州网站优化发布时间:2023-12-28 10:37:44查看次数:来源:网络文章数:

  robots文件是一个非常重要的文件,如果编写错误会造成网站不收录,所以要严格对待,下面巨海小编给大家讲解robots文件的作用?robots文件怎么写?,希望可以帮助到您!

  一、robots文件的作用?

  1、利用robots文件指定优化某些内容

  一个新的网站有很多内容,但是百度不会全部抓取,网站的收录很低,所以我们需要把网站的链接放到一个文件里,让百度抓取提高我们的收录率,但是如何让百度抓取我们现在的文件呢?其实很简单,我们可以直接把这个文件写到robots.txt中,因为百度每次访问网站都会先访问robots.txt,所以只要把你的网站地图文件写在robots.txt中,百度就一定可以抓取到,提升我们站点的收录量。

robots文件的作用?robots文件怎么写?(图1)

  2、防止robots.txt 屏蔽蜘蛛抓取

  我们编写robots.txt一定不要写错而造成蜘蛛抓取不了,如果真的一不小心写错,那么你的网站蜘蛛就无法抓取,就不会产生收录了,写完robots.txt一定要按照上面的文章对照一下,如果确定没错,在上传服务器,另外说一下,如果你写完robots.txt,你发现网站收录量降低,百度站长平台抓取量不断下降,就一定是robots.txt的问题了。

  3、利用robots文件屏蔽无效抓取

  我们在网站优化的时候,有些抓取是无效的,比如我们有一些目录、一些网站后台文件、一些图片等等,还有一些百度抓取不到的404个链接,百度自己的网站已经处理了目前的404。

  百度还在爬行,所以我们不得不屏蔽它,因为百度爬行之后,它会回馈给搜索引擎,如果反馈的内容质量不高、无效的话,那么我们的网站分数就会下降,所以我们可以分析百度蜘蛛得到这样的无效爬行,然后屏蔽!

  二、robots文件怎么写?

  1、四大搜索引擎的蜘蛛标识

  百度蜘蛛:Baiduspider

  360蜘蛛:360Spider

  搜狗蜘蛛:sogou spider

  谷歌蜘蛛:Googlebot

  2、robots基本写法

robots文件的作用?robots文件怎么写?(图1)

  User-agent: * *代表的所有的搜索引擎都要按照下面的规则,*是通配符

  Disallow: /require/ 这里定义是禁止爬寻require目录下面的所有文件和目录

  Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的所有文件和目录

  Disallow: /ABC/ 这里定义是禁止爬寻ABC目录下面的目录

  Disallow: /cgi/*.htm 禁止访问/cgi/目录下的所有以“.htm“为后缀的URL(包含子目录)。

  Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片

  Disallow: /*?* 禁止访问网站中所有包含问号 (?) 的网址(适用于动态地址)

  Disallow:/ab/123.html 禁止爬取ab文件夹下面的123.html文件。

  Allow: /cgi-bin/  这里定义是允许爬寻cgi-bin目录下面的目录

  Allow: /tmp 这里定义是允许爬寻tmp的整个目录

  Allow: .htm$ 仅允许访问以“.htm“为后缀的URL。

  Allow: .gif$ 允许抓取网页和gif格式图片

  Sitemap: 网站地图 告诉爬虫这个页面是网站地图

  3、robots文件用法说明

  例1. 禁止所有搜索引擎访问网站的任何部分

  User-agent: *

  Disallow: /

  例2. 允许所有的引擎蜘蛛访问

  User-agent: *

  allow: /

  例3. 禁止360搜索引擎的访问

  User-agent: 360Spider

  Disallow: /

  例4. 允许百度搜索引擎的访问

  User-agent: Baiduspider

  allow:/

  例5.允许百度引擎,禁止360引擎

  User-agent: Baiduspider

  allow:/

  User-agent: 360Spider

  Disallow: /

  例6.允许所有引擎,但禁止抓取网站admin目录下所有文件和目录

  User-agent: *

  Disallow: /admin/

  例7.允许所有引擎,但禁止抓取网站anli.html页面

  User-agent: *

  Disallow: /anli.html

  例8.允许所有引擎,但禁止抓取网站中动态页面

  User-agent: *

  Disallow: /*?*

  总结:由于时间和篇幅有限,本文到这里就结束了,关于robots文件的作用?robots文件怎么写?就不再阐述了。巨海信息科技专注搜索引擎营销8年。如您有SEO外包方面的需求,可以联系我们的在线客服,或者拨打我们的热线电话.

站内文章:均为188bet博彩体育app下载方式 各部门原创内容如需转载请著名本文网站链接://www.mcissock.com/new/33182.html未经允许转载要受法律责任,如需转载请联系269247937@qq.com


[robots文件的作用?robots文件怎么写?]

本文链接://www.mcissock.com/new/33182.html
tags:robots文件作用怎么
网页是否收录:
118bet金博宝 在线咨询

相关文章

您的项目需求

*请认真填写需求信息,我们会在24小时内与您取得联系。

  • 返回顶部
  • 15617636856
  • QQ在线
  • 微信二维码
0
Baidu
map