PA直营
全部
All
当前位置: 首页 > 新闻资讯 > 什么是Robots协议
相关新闻
  • PA直营签约新华社——缔造“亿万级流量”小程序

    2026-04-18 21:46

    新华通讯社(以下简称:新华社)从诞生起就在党中央的直接领导下开展工作,同时也是我党早期创建的重要宣传舆论机构,发挥着喉舌、耳目和信息汇总的重要作用。属于法定新闻监管机构,同时也是世界性现代通

  • 今年5G元年,将会温暖这个“互联网寒冬”!

    2026-04-17 07:05

    在5G+工业互联网网站开发发展过程中,5G将触角延伸到更多领域,依靠跨领域合作促成新的应用场景。由此可见,5G+工业互联网网站开发的应用需紧跟行业需求,以解决行业痛点、实现行业愿景为突破口,

  • 在网站开发中有哪些风格是用户偏爱的?

    2026-04-13 14:11

    时代在革新,人们的生活在变化。网站开发也在不断升级中,网站风格要与产品同步,一个前卫新奇的网站开发自然不可少。今天北京网站开发PA直营小编跟大家说说网站开发中常见风格有哪些,大家可以摸索着

  • “互联网免费 ”模式要理性使用才能走的更远

    2026-04-09 22:05

    受疫情防控“宅家”措施的影响,线下人流量大幅度减少,与此同时,一些免费的线上网站制作产品和服务却广受大众用户的青睐。“免费模式”涉及办公、教育、医疗、娱乐等各个方面,包括免费的远程办公软件、

  • 线上活动解决方案

    2026-04-08 22:57

    线上活动解决方案是指依托于网络的,在网络上发起的绝大部分在网络上进行的活动,在互联网上发布活动信息,募集活动人员,进行宣传推广。我们把线上活动的策划案分为两个大类,创意案和执行案。两者既有联

什么是Robots协议

返回列表
发布时间:2026-04-12 07:50
Robots协议的全称是“网络爬虫排除标准”(Robots Exclusion
Protocol),网站通过Robots协议让搜索引擎知道哪些页面能抓取,哪些页面不能抓取。


公司网站设计案例


robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,可以创建和编辑它。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。


当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。



Robots.txt文件主要是限制整个站点或者目录的搜索引擎访问情况,而Robots
Meta标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots
Meta标签也是放在页面中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。


Robots
Meta标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。


index指令告诉搜索机器人抓取该页面;


follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;


Robots Meta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index、nofollow。



Robots协议用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取;可以屏蔽一些网站中比较大的文件,如:音乐,视频等,节省服务器带宽;也可以屏蔽站点的一些死链接。方便搜索引擎抓取网站内容;设置网站地图连接,方便引导蜘蛛爬取页面。


Robots协议是网站出于安全和隐私考虑,防止搜索引擎抓取敏感信息而设置的。搜索引擎则会按照Robots协议给予的权限进行抓取。Robots协议代表了一种契约精神,互联网企业只有遵守这一规则,才能保证网站及用户的隐私数据不被侵犯。Robots协议是维护互联网世界隐私安全的重要规则,如果被破坏,其后果是不可想象的。