前言
使用 Scrapy
已经有一段时间了,觉得自己有必要对源码好好的学习下了,所以写下记录,希望能加深自己的理解。
Scrapy | A Fast and Powerful Scraping and Web Crawling Framework
接下来说到的是最新版本: Scrapy 1.5,暂且把 Spider
称为 蜘蛛,而不是爬虫。
介绍
Scrapy是一个开源爬虫框架,用于抓取网站并提取有用的结构化数据,如数据挖掘,信息处理或历史档案。
尽管Scrapy最初是为网页抓取设计的,但它也可以用于使用API(如Amazon Associates Web Services)或作为通用网络抓取工具提取数据。
一个最简单的例子,相信大家都写过
代码语言:javascript复制import scrapy
class QuotesSpider(scrapy.Spider):
name = "quotes"
start_urls = [
'http://quotes.toscrape.com/tag/humor/',
]
def parse(self, response):
for quote in response.css('div.quote'):
yield {
'text': quote.css('span.text::text').extract_first(),
'author': quote.xpath('span/small/text()').extract_first(),
}
next_page = response.css('li.next a::attr("href")').extract_first()
if next_page is not None:
yield response.follow(next_page, self.parse)
一般来说,创建一个Scrapy项目需要如下流程:
- 使用
scrapy startproject spider
创建爬虫模板 - 爬虫类继承
scrapy.Spider
,重写parse
方法和逻辑 parse
方法中yield
或return
字典、Request
、Item
- 自定义
Item
、Middlewares
、Pipelines
等 - 使用
scrapy crawl <spider_name>
或新建文件cmdline.execute("scrapy crawl spider_name".split())
运行(便于调试) - 其它
架构概述
这是一张非常经典的图,基本上说到Scrapy都会用到它,来源于Architecture overview
核心组件(Components)
Scrapy Engine
:引擎,负责控制系统所有组件之间的数据流,并在发生某些操作时触发事件;Scheduler
:调度器,接收来自引擎的请求,并将它们排入队列,以便在引擎请求它们时将它们提供给它们(也提供给引擎);Downloader
:下载器,负责从网络上获取网页并将它们返回到引擎,然后引擎将它们返回给蜘蛛/spiders;Spiders
:蜘蛛,是用户编写的自定义类,用于解析响应并从中提取项目(也称为抓取的项目)或追加其他请求;Item Pipeline
:管道,负责输出结构化数据,可自定义输出位置,典型的任务包括清理,验证和持久性;Downloader middlewares
:下载中间件,位于引擎和下载器之间的特定钩子/hooks,当它们从引擎传递到下载器时处理请求,以及从下载器传递到引擎的响应,常用于如下情况:- 在将请求发送到下载器之前处理请求(即在Scrapy将请求发送到网站之前);
- 在将其传递给蜘蛛之前改变接收到的响应;
- 发送新的请求,而不是将接收到的响应传递给蜘蛛;
- 向蜘蛛传递响应而不需要获取网页;
- 默默地放下一些请求。
Spider middlewares
:Spider中间件,特定的钩子,位于引擎和蜘蛛之间,能够处理蜘蛛输入(响应)和输出(项目和请求),常用于如下情况:- spider回调的后处理输出 更改/添加/删除请求或items;
- 后处理start_requests;
- 处理蜘蛛异常;
- 根据响应内容为一些请求调用errback而不是callback。
Event-driven networking
:事件驱动的网络,Scrapy是用Twisted编写的,这是一个流行的事件驱动的Python网络框架。 因此,它使用非阻塞(又称异步)代码来实现并发。
Twisted is an event-driven networking engine written in Python and licensed under the open source MIT license.
数据流(Data flow)
Scrapy中的数据流由执行引擎控制,如下所示:
- 引擎获取最初的请求从蜘蛛抓取(
start_urls
)。 - 引擎在调度程序中调度请求,并要求下一个请求进行采集。
- 调度器将下一个请求返回给引擎。
- 引擎将请求发送到下载器,通过下载器中间件。
- 一旦页面完成下载,
Downloader
会生成一个响应(包含该页面)并将其发送到引擎,并通过Downloader Middlewares
。 - 引擎从
Downloader
收到响应并将其发送给Spider
进行处理,并通过Spider Middleware
传递。 Spider
处理响应,并通过Spider
中间件将抓取的项目和新的请求(后续)返回给引擎。- 引擎将处理后的项目发送到项目管道,然后将处理后的请求发送到调度程序,并要求可能的下一个请求进行采集。
- 该过程重复(从第1步开始),直到调度器没有更多请求。
找到一张图,便于理解:
第一期差不多就到这了,没有说很多代码,主要是宏观上来观察 Scrapy
的架构,是如何运行。之后会更多的查看Scrapy的源代码,就近是如何采集数据的。
(内心有点小恐慌,不知道会写成什么样子。)
补充
关于如何阅读项目源代码,找到一篇不错的文章,共享:如何阅读开源项目
主要是这几部分:
- 看:静态对代码进行分析,看相关资料,代码逻辑。
- 跑:将项目在IDE里面跑起来,通过IDE调试参数,加Log等。
- 查:阅读过程中肯定会遇到不懂的,这时候需要通过搜索引擎来解决你的疑惑。