异步任务,是 Web 开发中经常遇到的问题,比如说用户提交了一个请求,虽然这个请求对应的任务非常耗时,但是不能让用户等在这里,通常需要立即返回结果,告诉用户任务已提交。任务可以在后续慢慢完成,完成后再给用户发一个完成的通知。
今天分享一份代码,使用 Celery、RabbitMQ 和 MongoDB 实现一个异步任务工作流,你可以修改 task.py 来实现你自己的异步任务。
架构图如下:
其中 Celery 来执行异步任务,RabbitMQ 作为消息队列,MongoDB 存储任务执行结果,FastAPI 提供 Web 接口。
以上所有模块均可使用 Docker 一键部署。
下面为 Demo 使用方法:
1、确保本机已安装 Docker、Git
2、下载源代码:
代码语言:javascript复制git clone https://github.com/aarunjith/async-demo.git
3、部署并启动:
代码语言:javascript复制cd async-demo
docker compose up --build
4、启动一个异步任务:
代码语言:javascript复制$ curl -X POST http://localhost:8080/process
任务会发送到消息队列,同时会立即返回一个任务 id:
代码语言:javascript复制❯ curl -X POST http://localhost:8080/process
{"status":"PENDING","id":"a129c666-7b5b-45f7-ba54-9d7b96a1fe58","error":""}%
5、查询任务状态:
代码语言:javascript复制curl -X POST http://localhost:8080/check_progress/<task_id>
任务完成后的返回结果如下:
代码语言:javascript复制 ❯ curl -X POST http://localhost:8080/check_progress/a129c666-7b5b-45f7-ba54-9d7b96a1fe58
{"status":"SUCEESS","data":""hello""}%
代码目录结构如下:
其中 app.py 如下:
代码语言:javascript复制from fastapi import FastAPI
from celery.result import AsyncResult
from tasks import start_processing
from loguru import logger
from pymongo import MongoClient
import uvicorn
# Lets create a connection to our backend where celery stores the results
client = MongoClient("mongodb://mongodb:27017")
# Default database and collection names that Celery create
db = client['task_results']
coll = db["celery_taskmeta"]
app = FastAPI()
@app.post('/process')
async def process_text_file():
'''
Process endpoint to trigger the start of a process
'''
try:
result = start_processing.delay()
logger.info(f'Started processing the task with id {result.id}')
return {
"status": result.state,
'id': result.id,
'error': ''
}
except Exception as e:
logger.info(f'Task Execution failed: {e}')
return {
"status": "FAILURE",
'id': None,
'error': e
}
@app.post('/check_progress/{task_id}')
async def check_async_progress(task_id: str):
'''
Endpoint to check the task progress and fetch the results if the task is
complete.
'''
try:
result = AsyncResult(task_id)
if result.ready():
data = coll.find({'_id': task_id})[0]
return {'status': 'SUCEESS', 'data': data['result']}
else:
return {"status": result.state, "error": ''}
except Exception as e:
data = coll.find({'_id': task_id})[0]
if data:
return {'status': 'SUCEESS', 'data': data['result']}
return {'status': 'Task ID invalid', 'error': e}
if __name__ == "__main__":
uvicorn.run("app:app", host='0.0.0.0', port='8080')
如果要实现自己的任务队列,就修改 task.py 来添加自己的异步任务,可以整合到自己的项目中。
最后的话
Celery 是异步任务非常好用的工具,推荐阅读分布式异步任务队列神器之-Celery,一文搞定 celery 任务远程调用。RabbitMQ 消息队列可以确保服务重新启动时数据也不丢失,因此这个 Demo 有很强的实用价值,如果觉得有帮助,可以转发、关注、讨论。