ROBOTSTXT_OBEY[通俗易懂]

2022-08-10 16:32:24 浏览数 (1)

大家好,又见面了,我是你们的朋友全栈君。

爬虫协议,即 robots 协议,也叫机器人协议

它用来限定爬虫程序可以爬取的内容范围 通常写在 robots.txt 文件中 该文件保存在网站的服务器上 爬虫程序访问网站时首先查看此文件 在 scrapy 项目的 settings.py 文件中 默认 ROBOTSTXT_OBEY = True ,即遵守此协议 当爬取内容不符合该协议且仍要爬取时 设置 ROBOTSTXT_OBEY = False ,不遵守此协议

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/130067.html原文链接:https://javaforall.cn

0 人点赞