SEO入门:robots.txt的终极指南
robots.txt文件是告诉搜索引擎在您网站上的页面哪些可以进入哪些不能进入的主要方式之一。所有主要的搜索引擎都支持其提供的基本功能。今天我们的文章将涵盖了robots.txt在网站上使用的所有方式。尽管看起来很简单,但您在网站上犯的任何robots.txt错误都会严重损害您的网站,因此请务必先理解本文再进行实践。
什么是robots.txt文件?
该robots.txt文件做什么?
我应该在哪里存放robots.txt文件?
使用robots.txt的利与弊
管理抓取预算
缺点:不从搜索结果中删除页面
缺点:不传播链接价值
robots.txt语法
User-agent指令
搜索引擎蜘蛛最常见的User-agent
Disallow指令
如何使用通配符/正则表达式
非标准robots.txt搜寻指令
Allow指令
host指令
crawl-delay指令
sitemapXML Sitemaps 的指令
什么是robots.txt文件?
抓取指令
robots.txt文件是一个由搜索引擎蜘蛛读取并遵循严格的语法内容所组成的文本文件。文件的语法很严格,仅因为它必须是计算机可读的。这意味着这里没有错误的余地。
robots.txt文件也称为“机器人排除协议”,是早期搜索引擎蜘蛛开发人员达成共识的结果。它不是任何标准组织制定的官方标准,但是所有主要的搜索引擎都遵守它。
robots.txt文件做什么?
搜索引擎通过抓取页面,跟随链接从站点A到站点B再到站点C的方式对网页进行索引。在搜索引擎搜索遇到新网站时,它将打开该网站的robots.txt文件,该文件告诉搜索引擎允许该站点上的哪些URL进行索引。
搜索引擎通常会缓存robots.txt的内容,但通常会每天刷新几次,因此更改会很快反映出来。
我应该在哪里存放robots.txt文件?
robots.txt文件应始终位于域的根目录。因此,如果您的域名为,则应位于https://www.example.com/robots.txt。
robots.txt编写的内容也很重要。内容区分大小写,因此请正确编写,否则将无法使用。
使用robots.txt的利与弊
管理抓取预算
众所周知,搜索蜘蛛会以预定的“准则”进入网站,以获取要爬取的页面数(根据网站的权限/大小/声誉得出的抓取页面数), SEO将此称为抓取预算。这就意味着,如果您阻止网站的某些部分的抓取,搜索蜘蛛就会抓取其他部分来补充页面数。
一般来说,阻止搜索引擎抓取您网站有问题的部分是非常有益,特别是在必须进行大量SEO清理的网站上。整理完所有内容后,您就可以解除阻止。
有关阻止查询参数的说明
特别重要的一种robots.txt应用是:您的站点使用大量参数进行查询。假设您有10个不同的查询参数,每个参数都可能有不同的值而生成不同的URL,这将导致数百甚至数千个毫无意义的URL。阻止所有查询参数页面的抓取将有助于确保搜索引擎仅收录您网站的主要URL,而不会陷入一个巨大陷阱。
此行阻止您网站上包含查询字符串的所有URL:
Disallow:/*?*
缺点:不从搜索结果中删除页面
即使您可以使用该robots.txt文件告诉搜索蜘蛛不能在网站上访问的位置,也不能使用它告诉搜索引擎哪些URL不在搜索结果中显示。换句话说,阻止它不会阻止它被索引。搜索引擎仍然会在搜索结果中显示,但不显示其内容。
如果要阻止页面显示在搜索结果中,则需要使用meta robots noindex标签。这意味着,为了找到noindex标签,搜索引擎必须能够访问该页面,因此请不要通过robots.txt阻止搜索蜘蛛访问该页面。
Noindex指令
过去可以在robots.txt中添加“ noindex”指令,从搜索结果中删除网址,并避免出现这些“碎片”。如今已经不再支持,请不要使用。
缺点:不传播链接价值
如果搜索引擎无法抓取页面,则无法在该页面上的链接之间散布链接值。当页面通过robots.txt被阻止时,这是死路一条。任何可能流到(并通过)该页面的链接值都会丢失。
robots.txt 句法
该User-agent指令
每个指令块的第一位是User-agent,它标识特定的蜘蛛。User-agent字段与该特定Spider(通常更长)的User-agent匹配,因此,例如,来自Google的最常见的Spider具有以下User-agent:
Mozilla / 5.0(兼容; Googlebot / 2.1; + http://www.google.com/bot.html)
因此,如果您想告诉这只蜘蛛做什么,一条相对简单的User-agent: Googlebot就可以解决问题。
大多数搜索引擎都有多个蜘蛛。他们将使用特定的Spider作为其正常索引,广告程序,图像,视频等。
搜索引擎将始终选择他们可以找到的最具体的指令块。假设您有3组指令:一组用于*,一组用于Googlebot和Googlebot-News。如果漫游器由其User-agent来自Googlebot-Video,它将跟随Googlebot restrictions。具有User-agent的漫游器Googlebot-News将使用更具体的Googlebot-News指令。
搜索引擎蜘蛛最常见的User-agent
以下是您可以在robots.txt文件中使用的User-agent列表,以匹配最常用的搜索引擎:
搜索引擎领域User-agent百度一般baiduspider百度图片baiduspider-image百度移动baiduspider-mobile百度新闻baiduspider-news百度视频baiduspider-video必应一般bingbot必应一般msnbot必应图片和视频msnbot-media必应广告adidxbot谷歌一般Googlebot谷歌图片Googlebot-Image谷歌移动Googlebot-Mobile谷歌新闻Googlebot-News谷歌视频Googlebot-Video谷歌AdSense的Mediapartners-Google谷歌AdWords的AdsBot-Google雅虎一般slurpYandex的一般yandex
Disallow指令
任何指令块中的第二行是Disallow行。您可以有一个或多个这些行,以指定指定的Spider无法访问站点的哪些部分。空Disallow行表示您不Disallow任何操作,因此从根本上讲,它意味着爬虫可以访问您网站的所有部分。
下面的示例将阻止所有“监听”到的搜索引擎robots.txt抓取您的网站。
User-agent:*
Disallow:/
下面的示例仅需少一个字符,即可允许所有搜索引擎抓取您的整个网站。
User-agent:*
Disallow:
以下示例将阻止Google抓取Photo您网站上的目录及其中的所有内容。
User-agent:googlebot
Disallow:/Photo
这意味着该目录的所有子目录/Photo也不会被扩展。由于这些行区分大小写,因此不会阻止Google抓取/photo目录。
同时含有/Photo的网址也同样会被阻止访问,比如/Photography/。
如何使用通配符/正则表达式
从规范化来说,robots.txt标准不支持正则表达式或通配符,但是,所有主要的搜索引擎都可以理解它。这意味着您可以使用以下行来阻止文件组:
Disallow:/*.php
Disallow:/copyrighted-images/*.jpg
在上面的示例中,*将扩展为它匹配的任何文件名。请注意,该行的其余部分仍然区分大小写,因此上面的第二行不会阻止/copyrighted-images/example.JPG被抓取。
某些搜索引擎(例如Google)允许使用更复杂的正则表达式,但是请注意,某些搜索引擎可能不理解此逻辑。它添加的最有用的功能是$,它指示URL的结尾。在以下示例中,您可以看到它的作用:
Disallow:/*.php$
这意味着/index.php无法索引,但/index.php?p=1可以。当然,这仅在非常特定的情况下有用,并且非常危险,请谨慎使用。
非标准robots.txt搜寻指令
除了Disallow和User-agent指令外,您还可以使用其他几个爬网指令。所有搜索引擎爬虫程序都不支持这些指令,因此请确保您了解它们的局限性。
Allow指令
尽管不在最初的“规范”中,对于allow指令大多数搜索引擎都了解它,并且允许使用简单且可读性强的指令,例如:
Disallow:/wp-admin/
Allow:/wp-admin/admin-ajax.php
在没有allow指令的情况下获得的结果就是阻止wp-admin文件夹中的每个文件的抓取。
Host指令
由Yandex(不受Google支持)支持,该指令可让您决定是否要显示搜索引擎example.com或。只需像这样指定就可以了:
Host:example.com