Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Robots协议具体解释

Robots协议具体解释

作者头像
全栈程序员站长
发布于 2022-07-13 10:35:09
发布于 2022-07-13 10:35:09
1.4K0
举报

大家好,又见面了,我是全栈君,祝每个程序员都可以多学几门语言。

禁止搜索引擎收录的方法(robots.txt)

一、什么是robots.txt文件?

搜索引擎通过一种程序robot(又称spider),自己主动訪问互联网上的网页并获取网页信息。您能够在您的站点中创建一个纯文本文件robots.txt,在这个文件里声明该站点中不想被robot訪问的部分,这样,该站点的部分或所有内容就能够不被搜索引擎收录了,或者指定搜索引擎仅仅收录指定的内容。

二、robots.txt文件放在哪里?

robots.txt文件应该放在站点根文件夹下。举例来说,当robots訪问一个站点(比方http://www.abc.com)时,首先会检查该站点中是否存在http://www.abc.com/robots.txt这个文件,假设机器人找到这个文件,它就会依据这个文件的内容,来确定它訪问权限的范围。

站点 URL 对应的 robots.txt的 URL

http://www.w3.org/ http://www.w3.org/robots.txt

http://www.w3.org:80/ http://www.w3.org:80/robots.txt

http://www.w3.org:1234/ http://www.w3.org:1234/robots.txt

http://w3.org/ http://w3.org/robots.txt

三、robots.txt文件的格式

“robots.txt”文件包括一条或很多其它的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式例如以下所看到的:”:”。

在该文件里能够使用#进行注解,具体用法和UNIX中的惯例一样。该文件里的记录通常以一行或多行User-agent開始,后面加上若干Disallow行,具体情况例如以下:

User-agent:

该项的值用于描写叙述搜索引擎robot的名字,在”robots.txt”文件里,假设有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。假设该项的值设为*,则该协议对不论什么机器人均有效,在”robots.txt”文件里,”User-agent:*”这种记录仅仅能有一条。

Disallow :

  该项的值用于描写叙述不希望被訪问到的一个URL,这个URL能够是一条完整的路径,也能够是部分的,不论什么以Disallow开头的URL均不会被robot訪问到。比如”Disallow: /help”对/help.html和/help/index.html都不同意搜索引擎訪问,而”Disallow:/help/”则同意robot訪问/help.html,而不能訪问/help/index.html。不论什么一条Disallow记录为空,说明该站点的全部部分都同意被訪问,在”/robots.txt”文件里,至少要有一Disallow记录。假设”/robots.txt”是一个空文件,则对于全部的搜索引擎robot,该站点都是开放的。

四、robots.txt文件使用方法举例

例1. 禁止全部搜索引擎訪问站点的不论什么部分

下载该robots.txt文件 User-agent: *

Disallow: /

例2. 同意全部的robot訪问

(或者也能够建一个空文件 “/robots.txt” file)

User-agent: *

Disallow:

例3. 禁止某个搜索引擎的訪问

User-agent: BadBot

Disallow: /

例4. 同意某个搜索引擎的訪问

User-agent: baiduspider

Disallow:

User-agent: *

Disallow: /

例5. 一个简单样例

在这个样例中,该站点有三个文件夹对搜索引擎的訪问做了限制,即搜索引擎不会訪问这三个文件夹。

须要注意的是对每个文件夹必须分开声明,而不要写成 “Disallow: /cgi-bin/ /tmp/”。

User-agent:后的* 具有特殊的含义,代表”any robot”,所以在该文件里不能有”Disallow:

/tmp/*” or “Disallow: *.gif”这种记录出现.

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

五、robots.txt文件參考资料

robots.txt文件的更详细设置,请參看下面资料:

· Web Server Administrator’s Guide to the Robots Exclusion Protocol

· HTML Author’s Guide to the Robots Exclusion Protocol

· The original 1994 protocol description, as currently deployed

· The revised Internet-Draft specification, which is not yet completed or implemented

在你的主页中为Web Robot设计路标

Internet越来越酷,WWW的知名度如日中天。在Internet上公布公司信息、进行电子商务已经从时髦演化成时尚。作为一个WebMaster,你可能对HTML、Javascript、Java、 ActiveX了如指掌,但你是否知道什么是WebRobot?你是否知道Web Robot和你所设 计的主页有什么关系?

Internet 上的流浪汉— Web Robot

有时你会莫名其妙地发现你的主页的内容在一个搜索引擎中被索引,即使你从未与他 们有过不论什么联系。事实上这正是Web Robot的功劳。WebRobot事实上是一些程序,它能够 穿越大量Internet网址的超文本结构,递归地检索网络网站全部的内容。这些程序有时被叫“蜘蛛(Spider)” , “网上流浪汉(Web Wanderer)”,“网络蠕虫(web worms)”或Webcrawler。一些Internet网上知名的搜索引擎网站(Search Engines)都 有专门的WebRobot程序来完毕信息的採集,比如Lycos,Webcrawler,Altavista等,以及中文搜索引擎网站比如北极星

,网易,GOYOYO等。WebRobot就象一个不速之客,无论你是否在意,它都会忠于自己主人的职责,任劳任怨、不知疲倦地奔波于万维网的空间,当然也会光临你的主页,检索主页内容并生成它所须要的记录格式。也许有的主页内容你乐于世人皆知,但有的内容你却不愿被洞察、索引。难道你就仅仅能任其“横行”于自己主页空间,是否能指挥和控制WebRobot的行踪呢?答案当然是肯定的。仅仅要你阅读了本篇的下文,就能够象一个交通 警察一样,布置下一个个路标,告诉WebRobot应该怎么去检索你的主页,哪些能够检索,哪些不能够訪问。事实上Web Robot能听懂你的话不要以为Web Robot是毫无组织,毫无管束地乱跑。非常多Web Robot软件给网络网站的 管理员或网页内容制作者提供了两种方法来限制Web Robot的行踪:

1. Robots Exclusion Protocol 协议

网络网站的管理员能够在网站上建立一个专门格式的文件,来指出网站上的哪一部分 能够被robot訪问, 这个文件放在网站的根文件夹下,即robots.txt.” target=”_blank”>http://…/robots.txt.

2. Robots META tag

一个网页作者能够使用专门的HTML META tag ,来指出某一个网页能否够被索 引、分析或链接。这些方法适合于大多数的Web Robot,至于是否在软件中实施了这些方法,还依赖于 Robot的开发人员,并不是能够保证对不论什么Robot都灵验。假设你迫切须要保护自己内容,则应考虑採用诸如添加password等其它保护方法。

使用Robots Exclusion Protocol 协议

当Robot訪问一个 Web 网站时,比方http://www.sti.net.cn/,它先去检查文件robots.txt”target=”_blank”>http://www.sti.net.cn/robots.txt。假设这个文件存在,它便会依照这种记录格式去分析:

  User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~joe/

  以确定它是否应该检索网站的文件。这些记录是专门给Web Robot看的,一般的浏览者大概永远不会看到这个文件,所以千万不要异想天开地在里面增加形似 类的HTML语句或是“How do you do? where areyou from?”之类假情假意的问候语。

  在一个网站上仅仅能有一个 “/robots.txt” 文件,并且文件名称的每一个字母要求所有是小写。在Robot的记录格式中每一个单独的”Disallow”行表示你不希望Robot訪问的URL, 每一个URL必须单独占一行,不能出现”Disallow: /cgi-bin/ /tmp/”这种病句。同一时候在一个记录中不能出现空行,这是由于空行是多个记录切割的标志。User-agent行指出的是Robot或其它代理的名称。在User-agent行,’*’ 表示一个特殊的含义—所有的robot。

  以下是几个robot.txt的样例:

  在整个server上拒绝全部的robots:

  User-agent: *

Disallow: /

  同意全部的robots訪问整个网站:

  User-agent: *

  Disallow:

  或者产生一个空的 “/robots.txt” 文件。

  server的部分内容同意全部的robot訪问

  User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /private/

  拒绝某一个专门的robot:

  User-agent: BadBot

  Disallow: /

  仅仅同意某一个robot光顾:

  User-agent: WebCrawler

  Disallow:

  User-agent: *

  Disallow: /

  最后我们给出 http://www.w3.org/网站上的robots.txt:

  # For use by search.w3.org

  User-agent: W3Crobot/1

  Disallow:

  User-agent: *

  Disallow: /Member/ # This is restricted to W3C Members only

  Disallow: /member/ # This is restricted to W3C Members only

  Disallow: /team/ # This is restricted to W3C Team only

  Disallow: /TandS/Member # This is restricted to W3C Members only

  Disallow: /TandS/Team # This is restricted to W3C Team only

  Disallow: /Project

  Disallow: /Systems

  Disallow: /Web

  Disallow: /Team

使用 Robots META tag 方式

Robots META tag 同意HTML网页作者指出某一页能否够被索引,或能否够用来查找很多其它的链接文件。眼下仅仅有部分robot实施了这一功能。

Robots META tag的格式为:

象其它的META tag一样,它应该放在HTML文件的HEAD区:

  …

  Robots META tag指令使用逗号隔开,能够使用的指令包含 [NO]INDEX 和[NO]FOLLOW。INDEX指令指出一个索引性robot能否够对本页进行索引;FOLLOW 指

令指出robot能否够跟踪本页的链接。缺省的情况是INDEX和FOLLOW。比如:一个好的Web 网站管理员应该将robot的管理考虑在内,使robot为自己的主页服务, 同一时候又不损害自己网页的安全。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/118106.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021年12月,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
robots协议
robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的robots.txt,或者使用robots元数据(Metadata,又稱元資料)。
h3110_w0r1d
2024/02/19
6710
Robots.txt指南
当搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。Robots.txt文件用于限定搜索引擎对其网站的访问范围,即告诉搜索引擎网站中哪些文件是允许它进行检索(下载)的。这就是大家在网络上常看到的“拒绝Robots访问标准”(Robots Exclusion Standard)。下面我们简称RES。 Robots.txt文件的格式:Robots.txt文件的格式比较特殊,它由记录组成。这些记录通过空行分开。其中每条记录均由两个域组成:   1) 一个User-Agent(用户代理)字符串行;   2) 若干Disallow字符串行。   记录格式为:<Field> ":" <value>   下面我们分别对这两个域做进一步说明。 User-agent(用户代理):   User-agent行(用户代理行) 用于指定搜索引擎robot的名字,以Google的检索程序Googlebot为例,有:User-agent: Googlebot   一个robots.txt中至少要有一条User-agent记录。如果有多条User-agent记录,则说明有多个robot会受到RES标准的限制。当然了,如果要指定所有的robot,只需用一个通配符"*"就搞定了,即:User-agent: * Disallow(拒绝访问声明):   在Robots.txt文件中,每条记录的第二个域是Disallow:指令行。这些Disallow行声明了该网站中不希望被访问的文件和(或)目录。例如"Disallow: email.htm"对文件的访问进行了声明,禁止Spiders下载网站上的email.htm文件。而"Disallow: /cgi-bin/"则对cgi-bin目录的访问进行了声明,拒绝Spiders进入该目录及其子目录。Disallow声明行还具有通配符功能。例如上例中"Disallow: /cgi-bin/"声明了拒绝搜索引擎对cgi-bin目录及其子目录的访问,而"Disallow:/bob"则拒绝搜索引擎对/bob.html和/bob/indes.html的访问(即无论是名为bob的文件还是名为bob的目录下的文件都不允许搜索引擎访问)。Disallow记录如果留空,则说明该网站的所有部分都向搜索引擎开放。 空格 & 注释   在robots.txt文件中,凡以"#"开头的行,均被视为注解内容,这和UNIX中的惯例是一样的。但大家需要注意两个问题:   1) RES标准允许将注解内容放在指示行的末尾,但这种格式并不是所有的Spiders都能够支持。譬如,并不是所有的Spiders都能够正确理解"Disallow: bob #comment"这样一条指令。有的Spiders就会误解为Disallow的是"bob#comment"。最好的办法是使注解自成一行。   2) RES标准允许在一个指令行的开头存在空格,象"Disallow: bob #comment",但我们也并不建议大家这么做。 Robots.txt文件的创建:   需要注意的是,应当在UNIX命令行终端模式下创建Robots.txt纯文本文件。好的文本编辑器一般都能够提供UNIX模式功能,或者你的FTP客户端软件也“应该”能够替你转换过来。如果你试图用一个没有提供文本编辑模式的HTML编辑器来生成你的robots.txt纯文本文件,那你可就是瞎子打蚊子——白费力气了。 对RES标准的扩展:   尽管已经提出了一些扩展标准,如Allow行或Robot版本控制(例如应该忽略大小写和版本号),但尚未得到RES工作组的正式批准认可。 附录I. Robots.txt用法举例:   使用通配符"*",可设置对所有robot的访问权限。   User-agent: *   Disallow:   表明:允许所有搜索引擎访问网站下的所有内容。   User-agent: *   Disallow: /   表明:禁止所有搜索引擎对网站下所有网页的访问。   User-agent: *   Disallow: /cgi-bin/Disallow: /images/   表明:禁止所有搜索引擎进入网站的cgi-bin和images目录及其下所有子目录。需要注意的是对每一个目录必须分开声明。   User-agent: Roverdog   Disallow: /   表明:禁止Roverdog访问网站上的任何文件。   User-agent: Googlebot Disallow: cheese.htm   表明:禁止Google的Googlebot访问其网站下的cheese.htm文件。   上面介绍了一些简单的设置,对于比较复杂的设置,可参看一些大型站点如CNN或Looksmart的robots.txt文件(www.cnn.c
数据和云01
2018/09/12
1.6K0
Robots.txt – 禁止爬虫
robots.txt用于禁止网络爬虫访问网站指定目录。robots.txt的格式采用面向行的语法:空行、注释行(以#打头)、规则行。规则行的格式为:Field: value。常见的规则行:User-Agent、Disallow、Allow行。
全栈程序员站长
2022/07/07
2.1K0
robots.txt书写错误导致的严重后果
就是一个网站根目录的txt文本,需要自己建立的,目的就是告诉搜索引擎哪些页面可以抓取,哪些页面不准抓取。
泽泽社长
2023/04/17
3540
编写爬虫竟然成了“面向监狱编程”,就是因为不懂Robots协议(爬虫协议)
编写Python爬虫很容易,不过要想安全地编写Python爬虫,就需要了解更多的至少,不光是技术上的,还有法律上的,Robots协议就是其中之一,如果不了解Robots协议,抓取了不该抓取的东西,可能会面临牢狱之灾哦!
蒙娜丽宁
2021/03/29
1.1K0
WordPress网站robots.txt怎么写及要注意的地方
WordPress网站robots.txt怎么写?robots.txt是网站很重要的一个组成部分。它告诉搜索引擎什么文件可以抓取,什么文件不能抓取。它是搜索引擎和网站之间一个默许的协议,由搜索引擎自觉遵守,,用文本文档来实现,放在robots.txt中。很多新手只知道服务器运维、建设wordpress网站内容、发外链、加友链,却不知道在网站建设初期及正常上线后最重要的robots.txt文件,所以对新手来说,本文内容很重要,建议大家好好看看,这里面有魏艾斯博客自己的体会。
魏艾斯博客www.vpsss.net
2019/01/03
2.8K0
给自己的网站加上robots.txt!(来自飞龙临天的整理投稿)
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被搜索引擎访问的部分,或者指定搜索引擎只收录指定的内容。
勤奋的思远
2021/02/23
1.4K0
robots.txt_Robots.txt:互联网幕后的一瞥「建议收藏」
Here’s an exercise: open a new tab and type in the URL of your favorite website. Add /robots.txt to the end and hit enter.
全栈程序员站长
2022/08/31
6430
简单的robots协议
什么是robots协议? robots协议是网站和搜索引擎之间的协议,你可以在文件中规定哪些文件不想给搜索引擎爬取到,又或者那些可以给爬取到,每次搜索引擎爬取内容的时候,都会看当前网站有没有robots.txt的文件,如果有,将robots.txt文件内指定可以访问或者不可以访问的页面保留或者过滤掉。robots.txt存在与网站的根目录,如果网站名叫做http://www.test.com/,robots文件存在于根目录的话,可以通过http://www.test.com/robots.txt访问robo
vFREE
2021/12/20
1K0
简单的robots协议
robots.txt文件的作用
因此建立robots.txt文件是很有必要的,网站中重复的内容、页面或者404信息过多,搜索引擎蜘蛛就会认为该网站价值较低,从而降低对该网站的“印象分”,这就是我们经常听到的“降低权重”,这样网站的排名就不好了。
全栈程序员站长
2022/08/24
1.3K0
详解robots.txt和Robots META标签
大家好,又见面了,我是你们的朋友全栈君。对于网站管理者和内容提供者来说,有时候会有一些站点内容,不希望被ROBOTS抓取而公开。为了解决这个问题,ROBOTS开发界提供了两个办法:一个是robots.txt,另一个是The Robots meta标签。
全栈程序员站长
2022/08/27
1.2K0
robots.txt文件怎么写?
文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
西里国际站
2023/04/18
1.2K0
robots.txt文件怎么写?
爬虫,robots.txt和HTML的爬虫控制标签
web爬虫是一种机器人,它会递归对站点进行遍历,然后沿着web的超链接进行数据爬取。
terrence386
2022/07/14
7470
zblog博客的robots.txt文件优化正确写法 zblog的robots.txt怎么写?zblog的robots.txt文件示例下载
robots.txt对于比较seo的站长来说是一个很重要的东西,经常有朋友再问zblog的robots怎么写?本文就来详细说明下。
雾海梦曦
2022/11/14
8780
zblog博客的robots.txt文件优化正确写法  zblog的robots.txt怎么写?zblog的robots.txt文件示例下载
robots协议标准
    前两天刚知道用爬虫抓取page有个协议的问题,尤其是对于open source的爬虫,刚看到一篇blog,写的就是如此,难怪之前看google的robots也和另外一个U.S.的网站相同,感情是大家都商量好了, 可能这方面中国的一些站点这种意识要稍微淡一点。。。同时这也害得毕设还得另谋思路。。。     搜索引擎三巨头打的不亦乐乎,但偶尔也合作一下。去年Google,雅虎,微软就合作,共同遵守统一的Sitemaps标准。前两天三巨头又同时宣布,共 同遵守的 robots.txt文件标准。Google,雅虎,微软各自在自己的官方博客上发了一篇帖子,公布三家都支持的robots.txt文件及Meta标签 的标准,以及一些各自特有的标准。下面做一个总结。 三家都支持的robots文件记录包括: Disallow - 告诉蜘蛛不要抓取某些文件或目录。如下面代码将阻止蜘蛛抓取所有的网站文件: User-agent: * Disallow: / Allow - 告诉蜘蛛应该抓取某些文件。Allow和Disallow配合使用,可以告诉蜘蛛某个目录下,大部分都不抓取,只抓取一部分。如下面代码将使蜘蛛不抓取ab目录下其他文件,而只抓取其中cd下的文件: User-agent: * Disallow: /ab/ Allow: /ab $通配符 - 匹配URL结尾的字符。如下面代码将允许蜘蛛访问以.htm为后缀的URL: User-agent: * Allow: .htm$ *通配符 - 告诉蜘蛛匹配任意一段字符。如下面一段代码将禁止蜘蛛抓取所有htm文件: User-agent: * Disallow: /*.htm Sitemaps位置 - 告诉蜘蛛你的网站地图在哪里,格式为:Sitemap: <sitemap_XXXXXX> 三家都支持的Meta标签包括: NOINDEX - 告诉蜘蛛不要索引某个网页。 NOFOLLOW - 告诉蜘蛛不要跟踪网页上的链接。 NOSNIPPET - 告诉蜘蛛不要在搜索结果中显示说明文字。 NOARCHIVE - 告诉蜘蛛不要显示快照。 NOODP - 告诉蜘蛛不要使用开放目录中的标题和说明。 上面这些记录或标签,现在三家都共同支持。其中通配符好像以前雅虎微软并不支持。百度现在也支持Disallow,Allow及两种通配符。Meta标签我没有找到百度是否支持的官方说明。 只有Google支持的Meta标签有: UNAVAILABLE_AFTER - 告诉蜘蛛网页什么时候过期。在这个日期之后,不应该再出现在搜索结果中。 NOIMAGEINDEX - 告诉蜘蛛不要索引页面上的图片。 NOTRANSLATE - 告诉蜘蛛不要翻译页面内容。 雅虎还支持Meta标签: Crawl-Delay - 允许蜘蛛延时抓取的频率。 NOYDIR - 和NOODP标签相似,但是指雅虎目录,而不是开放目录。 Robots-nocontent - 告诉蜘蛛被标注的部分html不是网页内容的一部分,或者换个角度,告诉蜘蛛哪些部分是页面的主要内容(想被检索的内容)。 MSN还支持Meta标签:Crawl-Delay     另外提醒大家注意的是,robots.txt文件可以不存在,返回404错误,意味着允许蜘蛛抓取所有内容。但抓取robots.txt文件时却发生超时 之类的错误,可能导致搜索引擎不收录网站,因为蜘蛛不知道robots.txt文件是否存在或者里面有什么内容,这与确认文件不存在是不一样的。
bisal
2019/01/29
8800
爬虫协议 Tobots
Robots 协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过 Robots 协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。robots.txt 是搜索引擎访问网站的时候要查看的第一个文件。
丹枫无迹
2019/09/11
7910
Robots.txt 协议详解及使用说明
Robots协议,也称为爬虫协议、机器人协议等,其全称为“网络爬虫排除标准(Robots Exclusion Protocol)”。网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。也既是Robots的用法有两种,一种是告诉搜索引擎哪些页面你不能抓(默认其他的就可以抓);一种是告诉搜索引擎你只能抓取哪些页面(默认其他的不可以抓)。
大江小浪
2018/07/24
1.7K0
Robots.txt 协议详解及使用说明
如何使用robots.txt及其详解
在国内,网站管理者似乎对robots.txt并没有引起多大重视,应一些朋友之请求,今天想通过这篇文章来简单谈一下robots.txt的写作。
全栈程序员站长
2022/06/30
1.4K0
Robots协议
Robots协议 什么是robots? Robots文件:网站和搜索引擎之间的一个协议。 用来防止搜索引擎抓取那些我们不想被搜索引擎看到的隐私内容。 Robots文件告诉蜘蛛什么是可以被查看的。 Robots是蜘蛛爬行网站第一个要访问的文件。 一:搜索引擎蜘蛛爬虫的原理 网络蜘蛛是通过网页的链接地址来寻找网页,从网站某一个页面(通常是首页)开始,读取网页的内容,找到在网页中的其他链接地址,然后通过这些链接地址寻找下一个网页,这样一直循环下去,直到把这个网站所有的网页都抓取完为止。 当我们不想让搜索引擎抓
用户1112962
2018/07/03
1.4K0
什么是Robots协议,标准写法是什么
什么是 Robots 协议 Robots 是网站和搜引擎之间的一个协议。用来防止搜索引擎抓取那些我们不想被索引到的页面或内容。早期是为了防止搜索引擎抓取网站的一些隐私页面,不想公开展示的页面,Robots 的作用已经不在局限于网页的隐私了,如今已经是作为学习 SEO 的一个最基础的范畴,能够有效提高网站的健康度、纯净度,降低网站垃圾内容收录 User-agent:是定义搜索引擎的,指定搜索引擎的爬取程序,如果想定义所有搜索引擎请用 * , 记住他不能单独使用,他要配合前面两个语法使用(随便一个就行了) D
沈唁
2018/05/24
1.6K0
相关推荐
robots协议
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档