在爬虫中异步是一个必须会的技能。 这里记录一下学习爬虫中遇到的问题。还有如何使用这两个异步模块。
一:性能比对
多进程,多线程,(这里不建议使用,太消耗性能)
进程池和线程池 (可以适当的使用)
单线程 异步协程 (推荐使用)
二:案例演示
1->1: 普通的啥也不用的
1->2:
2->1:
使用线程池
2->2:结果
三:异步协程
1: 协程的参数设定
event_loop:
事件循环,相当于一个无限循环,我们可以把一些区数注册到这个事件循环上,当满足某些条件的时候,函数就会被循环执行。程序是按照设定的顺序从头执行到尾,运行的次数也是完全按照设定。当在编写异步程序时,必然其中有部分程序的运行耗时是比较久的,需要先让出当前程序的控权,让其在背后运行,让另一部分的程序先运行起来。当背后运行的程序完成后,也需要及时通知主程序已经完成任务可以进行下一步操作,但这个过程所票的时间是不确定的,需要主程序不断的临听状态,一日收到了任务完成的消息,就开始进行下一步。100p就是这个持续不断的监视器。
coroutine:
中文翻译叫协程,在 Pytho 中常指代为协程对象类型,我们可以将协程对象注册到事件循环中,它会被事件循环调用。我们可以使用async 关键字来定义一个方法,这个方法在调用时不会立即被执行,而是返回一个协程对象。
task:
任务,它是对协程对象的进一步封装,包含了任务的各个状态。
future:
代表将来执行或还没有执行的任务,实际上和 task 没有本质区别。
另外我们还需要了解 asymc/aait 关键字,它是从 Python 3.5 才出现的,专门用于定义协程。其中,asym 定义一个协程,await 用来挂起阻塞方法的执行。
2:协程的简单使用
结果:
3:task的使用
4:future 的使用
5:
回调函数的使用
四:支持异步请求网络的模块: aiohttp
代码语言:javascript复制import aiohttp
import asyncio
async def get_page(url):
async with aiohttp.ClientSession() as session: #with 前面都要加async
async with await session.get(url=url) as response: # 有io阻塞的都要加await 挂起
page_text = await response.text() #read() json()
print(page_text)
start = time.time()
urls = [
'http://127.0.0.1:5000/bobo',
'http://127.0.0.1:5000/jay',
'http://127.0.0.1:5000/tom',
'http://127.0.0.1:5000/bobo',
'http://127.0.0.1:5000/jay',
'http://127.0.0.1:5000/tom',
'http://127.0.0.1:5000/bobo',
'http://127.0.0.1:5000/jay',
'http://127.0.0.1:5000/tom'
]
tasks = []
loop = asyncio.get_event_loop()
for url in urls:
c = get_page(url)
task = asyncio.ensure_future(c)
tasks.append(task)
loop.run_until_complete(asyncio.wait(tasks))
print('总耗时:',time.time()-start)
我正在参与2023腾讯技术创作特训营第三期有奖征文,组队打卡瓜分大奖!