如何实现通用爬虫并检测可用性?

2023-02-16 17:04:51 浏览数 (1)

一、实现运行爬虫模块

我们的目标:根据配置文件信息, 加载爬虫,抓取HTTP代理,进行校验,如果可用,写入到数据库中

根据以下思路:

1.在run_spider.py中,创建RunSpider类

2.提供一个运行爬虫的run方法,作为运行爬虫的入口,实现核心的处理逻辑

● 根据配置信息,获取爬虫对象列表

● 遍历爬虫对象列表,获取爬虫对象,遍历爬虫对象的get_proxies方法,获取HTTP代理

● 检测HTTP代理(HTTP代理检测模块)

● 如果可用,写入数据库(数据库模块)

● 处理异常,防止一个爬虫内部出错了,影响其他的爬虫

3.使用异步来执行每一个爬虫任务,以提高抓取HTTP代理效率

● 在init方法中创建协程池对象

● 把处理一个代理爬虫的代码抽到一个方法

● 使用异步执行这个方法

● 调用协程的join方法,让当前线程等待队列任务的完成

4.使用schedule模块,实现每隔一定的时间,执行一次爬取任务

● 定义一个start的类方法

● 创建当前类的对象,调用run方法

● 使用schedule模块,每隔一定的时间,执行当前对象的run方法

所以我们可以在run_spider.py中,创建RunSpider类,进而修改settings.py增加HTTP代理爬虫的配置信息。具体代码如下:

run_spider代码如下:

代码语言:python代码运行次数:0复制
//
from gevent import monkey

monkey.patch_all()
import importlib
from gevent.pool 
import Poolfrom proxy_pool.settings import SPIDER_LIST,RUN_SPIDER_INTERVAL
from proxy_pool.utils.http_validate import check_proxy
from proxy_pool.utils.mongo_pool import MongoPoolfrom proxy_pool.utils.log import logger
import schedule
import time

class RunSpider(object):    
def __init__(self):    
self.mongo_pool = MongoPool()    
self.coroutine_pool = Pool() 

def get_spider_from_settings(self):            
for class_full_name in SPIDER_LIST:           
module_name, class_name = class_full_name.rsplit('.', 1)            
module = importlib.import_module(module_name)            
spider_class = getattr(module, class_name)            
spider = spider_class()            
yield spider

def process_one_spider(self, spider):        
try:            
for proxy in spider.run():            
check_proxy(proxy)            
if proxy.speed != -1:           
self.mongo_pool.insert_one(proxy)            
except Exception as ex:            
logger.warning(ex)

def run(self):       
spider_list = self.get_spider_from_settings()       
for spider in spider_list:        
self.coroutine_pool.apply_async(func=self.process_one_spider, args=(spider,))        
self.coroutine_pool.join()   

@classmethod        
def start(cls):        
rs = cls()        
rs.run()        
schedule.every(RUN_SPIDER_INTERVAL).hours.do(rs.run) 
while True:
schedule.run_pending()
time.sleep(1)

if __name__ == "__main__":    
RunSpider().run()

settings.py代码如下:

代码语言:python代码运行次数:0复制
//
 # 配置run_spider模块# 
---配置spider
SPIDER_LIST = {    
"proxy_pool.core.proxy_spider.xila_spider.XiLaSpider",    "proxy_pool.core.proxy_spider.ip3366_spider.Ip3366Spider",}
# ---配置schedule的周期
RUN_SPIDER_INTERVAL = 4

二、实现HTTP代理检测模块

之后,我们需要检查HTTP代理可用性,保证代理池中HTTP代理基本可用。这部分基本是大家耳熟能详的:

1.在proxy_test.py中,创建ProxyTester类

2.提供一个run方法,用于处理检测HTTP代理核心逻辑

我们可以先从数据库中获取所有的HTTP代理,然后从HTTP代理列表中,检查HTTP代理的可用性,如果HTTP代理不可用,让代理分数-1,如果代理分数=0,就从数据库中删除该代理,否则更新该代理,如果代理可用,就恢复该代理的分数,更新到数据库中。

3.为了提高检查的速度,使用异步来执行检测任务

首先,我们需要把要检测的HTTP代理,放到队列中;

其次,把检查一个代理可用性的代码,抽取到一个方法中,从队列中获取HTTP代理,进行检查,检查完毕,调度队列的task_done方法;

然后通过异步回调,使用死循环不断执行这个方法;

最后,开启多个一个异步任务,来处理HTTP代理的检测,可以通过配置文件指定异步数量。

4.使用schedule模块,每隔一定的时间,执行一次检测任务

具体代码如下:

代码语言:python代码运行次数:0复制
// 
from gevent import monkey
monkey.patch_all()

from gevent.pool import Pool
from queue import Queue
from proxy_pool.utils.mongo_pool import MongoPool
from proxy_pool.settings import ASYNC_COUNT, DEFAULT_SCORE, 
TEST_SPIDER_INTERVAL
from proxy_pool.utils.http_validate import check_proxy
import schedule
import time

class ProxyTest(object):
def __init__(self):
self.mongo_pool = MongoPool()
self.proxy_queue = Queue()
self.coroutine_pool = Pool()

def check_one_proxy(self):
proxy = self.proxy_queue.get()
check_proxy(proxy)
if proxy.speed == -1:
proxy.score -= 1
if proxy.score == 0:
self.mongo_pool.delete_one(proxy)
self.mongo_pool.update_one(proxy)
proxy.score = DEFAULT_SCORE
self.mongo_pool.update_one(proxy)
self.proxy_queue.task_done()

def check_call_back(self, temp):
self.coroutine_pool.apply_async(func=self.check_one_proxy, callback=self.check_call_back)

def run(self):
for proxy in self.mongo_pool.find_all():
self.proxy_queue.put(proxy)
for i in range(ASYNC_COUNT):
self.coroutine_pool.apply_async(func=self.check_one_proxy, callback=
self.check_call_back)self.coroutine_pool.join(
self.proxy_queue.join()
                
@classmethoddef 
start(cls):
rs = cls()
rs.run()
schedule.every(TEST_SPIDER_INTERVAL).hours.do(rs.run)
while True:
schedule.run_pending()
ime.sleep(1)

if __name__ == "__main__":
obj = ProxyTest()
obj.start()

本文转载自

0 人点赞