【robots.txt】蜘蛛协议写法(robots.txt的文本文件主要用来限定蜘蛛在网站上的)

仲莎美
导读 大家好,小问来为大家解答以上问题。【robots txt】蜘蛛协议写法,robots txt的文本文件主要用来限定蜘蛛在网站上的这个很多人还不知道,现在

大家好,小问来为大家解答以上问题。【robots.txt】蜘蛛协议写法,robots.txt的文本文件主要用来限定蜘蛛在网站上的这个很多人还不知道,现在让我们一起来看看吧!

1、 Robots协议的全称(也称为爬虫协议、机器人协议等。)是“RobotsExclusionProtocol”,网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不可以抓取。

2、 陈提醒机器人,文件名不能更改,文件必须放在网站的根目录下才能生效。当搜索引擎来到网站时,首先访问的页面是robots文件。

3、 用户-代理:定义搜索引擎的类型(定义哪些搜索引擎机器人将生效)。

4、 User-Agent: BaiduSpider (

以上就是【【robots.txt】蜘蛛协议写法,robots.txt的文本文件主要用来限定蜘蛛在网站上的】相关内容。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!