分布式任务队列Celery的实践

2021-11-08 11:11:14 浏览数 (1)

笔者在近期工作中有接触到 Celery,这是一个开源的分布式任务队列(Distributed Task Queue),在 Github 上现有 18k star,主要可以用于实现应用中的异步任务和定时任务,虽然是用 Python 编写,但协议可以用任何语言实现,现已有 gocelery、nodecelery 和 celery-php 等。

笔者写下此文总结对 Celery 的了解和在工作中的使用。本文的大概内容如下:

  1. 任务队列是什么;
  2. Celery 做了什么;
  3. Celery 在工作中的实践。

任务队列是什么

“消息队列(Message Queue)”,后端同学应该都有了解,常见的有 RabbitMQ、RocketMQ、Kafka。而“任务队列(Task Queue)”,笔者在接触 Celery 之前是没有听过的。任务队列是什么,而任务队列和消息队列,这两者之间有何关系。带着问题,先看看 Celery 的架构:

Celery

在 Celery 的架构中,可看出由多台 Server 发起异步任务(Async Task),发送任务到 Broker 的队列中,其中的 Celery Beat 进程可负责发起定时任务。当 Task 到达 Broker 后,会将其分发给相应的 Celery Worker 进行处理。当 Task 处理完成后,其结果存储至 Backend。

在上述过程中的 Broker 和 Backend,Celery 没有实现,而是使用了现有开源实现,例如 RabbitMQ 作为 Broker 提供消息队列服务,Redis 作为 Backend 提供结果存储服务。Celery 就像是抽象了消息队列架构中 Producer、Consumer 的实现,将消息队列中基本单位“消息”抽象成了任务队列中的“任务”,并将异步、定时任务的发起和结果存储等操作进行了封装,让开发者可以忽略 AMQP、RabbitMQ 等实现细节,为开发带来便利。

综上所述,Celery 作为任务队列是基于消息队列的进一步封装,其实现依赖消息队列

接下来,通过一个简单的应用来具体了解 Celery 做了什么。

Celery 做了什么

在应用开发中,为了保证响应速度,耗时且不影响流程的操作通常被做异步处理。例如在用户注册的处理过程中,通常会异步发送邮件通知用户,下面看看 Celery 是如何实现该异步操作。

在 task.py 中声明了发送邮件的方法 send_mail,并为其加上 Celery 提供的 @app.task 装饰器。通过该装饰器,可以将 send_mail 函数变成一个 celery.app.task:Task 实例对象。而该 Task 实例可提供了两个核心功能

  1. 将消息发送给队列;
  2. 声明 Worker 接收到消息后需要执行的具体函数。
代码语言:javascript复制
from celery import Celery

app = Celery('tasks', broker='amqp://guest@localhost//')

@app.task
def send_mail(email):
    print("send mail to ", email)
    import time
    time.sleep(5)
    return "success"

Task 已经定义完成,若要发起异步任务,可通过调用 Taskdelay 方法,该方法会将消息发送至队列,例如在用户注册完成时,发起发邮件的异步任务:

代码语言:javascript复制
# user.py
from tasks import send_mail

def register():
  print("1. 插入记录到数据库")
  print("2. 通过celery异步发邮件")
  send_mail.delay("chaycao@gmail.com")
  print("3. 告诉用户注册成功")

if __name__ =='__main__':
    register()

运行以上程序后,消息已经发送至 RabbitMQ 的队列中,可观察到其消息格式如下:

Task in RabbitMQ

可看出 Celery 封装后的消息包含了 task 标识和运行参数等内容。

接着,启动 Worker 消费 RabbitMQ 中的消息:

代码语言:javascript复制
celery -A tasks worker --loglevel=info

Worker 启动后,可以看到下面打印信息:

Worker Start

首先是 Worker 的配置信息,然后是 Worker 所执行的 Task 列表,接着是从 RabbitMQ 中成功获取消息并执行相应的 Task。

通过以上示例,可以进一步明白 Celery 作为任务队列框架所做的工作,而“分布式任务队列”中的”分布式“指的则是 Producer、Consumer 可以有多个,即多个进程向 Broker 发送任务,多个 Worker 从 Broker 中获取 Task 并执行。

以上只是一个简单的示例,接着再看下笔者在工作中所接触到的关于 Celery 使用的一些实践经验。

Celery 在工作中的实践

根据业务场景划分队列

在笔者所工作的项目中,Celery 用于处理下单、解析轨迹、推送上游等异步任务和定时任务。根据每个 Task 的业务场景,可为其指定对应的队列,例如:

代码语言:javascript复制
DEFAULT_CELERY_ROUTES = {
 'celery_task.pending_create': {'queue': 'create'},
 'celery_task.multi_create': {'queue': 'create'},
 'celery_task.pull_tracking': {'queue': 'pull'},
 'celery_task.pull_branch': {'queue': 'pull'},
 'celery_task.push_tracking': {'queue': 'push'},
 'celery_task.push_weight': {'queue': 'push'},
}

CELERY_ROUTES = {
 DEFAULT_CELERY_ROUTES
}

根据业务场景,在 DEFAULT_CELERY_ROUTES 配置中指定 6 个 Task 对应的 Queue,共有 3 个队列 create、pull、push,并将该路由规则加入到 CELERY_ROUTES 中以生效。这样设计的目的是为了不同场景彼此之间互不影响,例如解析任务阻塞不应该影响下单任务。

进一步划分队列

在根据业务场景粗略划分后,对于某个场景,可能需要更细致的划分,例如在向上游推送时,为了避免一个上游的阻塞影响向其他上游推送,需要做到不同上游彼此之间互不影响。所以需要针对不同上游使用不同队列,例如:

代码语言:javascript复制
CLIENT_CELERY_ROUTES = {
  # {0} 为 client 的占位符,在 ClientRouter 中进行格式化
 'celery_task.push_tracking_retry': {'queue': 'push_tracking_retry_{0}'},
 'celery_task.push_weight_retry': {'queue': 'push_weight_retry_{0}'},
}

class ClientRouter(object):

 def route_for_task(self, task, args=None, kwargs=None):
   if task not in CLIENT_CELERY_ROUTES:
    return None
   client_id = kwargs('client_id')
      # 根据 client_id 获取队列名
   queue_name = CLIENT_CELERY_ROUTES[task]['queue'].format(client_id)
   return {'queue': queue_name}

CELERY_ROUTES = {
 'ClientRouter'
 DEFAULT_CELERY_ROUTES,
}

CLIENT_CELERY_ROUTES 中指定了需要根据 Client 隔离队列的 Task 和其对应的 Queue 名称格式,队列名中含有一个占位符,为的是根据不同 Client 得到不同的队列名。

接着实现了一个路由器 ClientRouter ,其中定义了 router_for_task 方法,其作用是为 task 指定对应的队列名。可看出其中的逻辑是如果 taskCLIENT_CELERY_ROUTES 中,将会用 kwargs 中的 client_id 格式化队列名,得到最终发送消息的队列名,达到根据入参 client_id 来决定具体使用的队列,从而起到隔离不同 Client 使用不同队列的效果。

除了在 Client 的维度上划分,若需要在其他维度进一步划分队列以达到隔离的效果,也可参考该方法来设计路由规则。

动态队列

再来说说动态队列,其本质是预备队列,其目的是为了在线上环境减轻某些队列消息堆积的压力,起到快速支援的作用。通过配置来定义动态队列需要支援哪些队列,例如当 push 队列的压力较大,可配置 json 如下,将 push_tracking 和 push_weight 两个 Task 路由到预备的动态队列中。

代码语言:javascript复制
celery_dynamic_router 配置

{
 "celery_task.push_tracking": {
  "dynamic_queue": [1,2],
  "dynamic_percentage": 0.7,
 },
 "celery_task.push_weight": {
  "dynamic_queue": [3,4],
  "dynamic_percentage": 0.7,
 } 
}

上述配置的作用是将 70% 的 celery_task.push_tracking Task 路由到动态队列 1、2 上,70% 的 celery_task.push_weight Task 路由到动态队列 3、4 上。

动态队列的路由器 DynamicRouter 大致实现如下:

代码语言:javascript复制
class DynamicRouter(object):

 def route_for_task(self, task, args=None, kwargs=None):
  # 获取配置
  task_config = get_conf_dict('celery_dynamic_router').get(task, None)
  # task如果没在配置中,则直接返回
  if not task_config:
   return None
  # 获取task对应的动态队列配置
  dynamic_queue = task_config.get('dynamic_queue', [])
  dynamic_percentage = task_config.get('dynamic_percentage', 0.0)
  # 将一定比例的task路由到动态队列中
  if random.random() <= dynamic_percentage:
   # 决定使用哪个动态队列
   queue_name = router_load_balance(dynamic_queue, task_name)
   log.data('get_router| task_name:%s, queue:%s', task_name, queue_name)
   return {'queue': queue_name}
  else:
   return None

动态配置的定时任务

前文提到 Celery 不仅能实现异步任务,还能通过 Celery Beat 实现定时任务,首先看一个例子:

代码语言:javascript复制
from celery.schedules import crontab

app.conf.beat_schedule = {
   # 每30秒发送一次邮件
    'sendmail-every-30-seconds': {
        'task': 'asks.send_mail',
        'schedule': 30.0,
        'args': ['chaycao@gmail.com']
    },
}

完成上述配置后,执行 Celery Beat 命令:

celery beat

即根据配置每 30 秒执行一次 send_email 任务。

上述示例是在代码中配置定时任务。而在笔者的工作中使用了 djcelery 提供的数据库调度模型,通过结合 django 提供的 ORM 功能来动态设置,更为方便。下面叙述如何实现,首先在 Celery 配置中新增:

代码语言:javascript复制
CELERYBEAT_SCHEDULER = 'djcelery.schedulers.DatabaseScheduler' 

设置使用 DatabaseScheduler,然后再生成定时任务的配置表:

代码语言:javascript复制
python manage.py migrate

可以看到数据库中多出了以下表:

代码语言:javascript复制
| celery_taskmeta            |
| celery_tasksetmeta         |
| djcelery_crontabschedule   |
| djcelery_intervalschedule  |
| djcelery_periodictask      |
| djcelery_periodictasks     |
| djcelery_taskstate         |
| djcelery_workerstate       |

完成以上操作,最后只用执行 Celery Beat 命令,则会去数据库中读取配置发起定时任务。这样的好处是可以通过修改数据库中的记录来实现动态配置定时任务,例如调整任务的周期或者参数。


以上便是笔者在工作中接触到 Celery 所收获的内容,如果有需要实现异步任务、定时任务的场景,可以考虑使用 Celery。

我是草捏子,一只热爱技术和生活的草鱼,我们下期见!

参考

  1. Message Queue vs Task Queue difference (https://newbedev.com/message-queue-vs-task-queue-difference)
  2. 高性能异步框架Celery入坑指南 (https://juejin.cn/post/6844903689103081480)
  3. 分布式任务队列 Celery—深入 Task (https://www.cnblogs.com/jmilkfan-fanguiju/p/10589779.html)

0 人点赞