从上帝视角看一下消息发送和消费
当我们使用RocketMQ时,RocketMQ-Dashboard是一个非常好用的图形化界面工具
我们首先在RocketMQ-Dashboard上创建一个topic,每个topic下4个队列
每个topic是一类消息的集合,topic下面再细分queue是为了提高消息消费的并发度
「当producer发送topic消息时,应该往topic下的哪个queue来发送呢?」
producer会采用轮询的策略发送
「那么consumer应该消费哪个queue下的消息呢?」
当有一个消费者时当然是消费所有的queue
「如果有多个消费者呢?」
只需要根据各种负载均衡策略将队列分配给消费者即可,如下图是两种负载均衡的方式
你问我这两种负载策略怎么实现的?去看看源码呗,详细过程我就不分析了
「如果消费者数量超过队列的数量会发生什么?」
多出来的消费者将不会消费任何队列
「为什么一个consumer只能消费一个queue呢?」
多个消费者消费一个queue肯定会有并发问题,所以得加锁,这样还不如把topic下的队列数量设置的多一点
「我在运行的过程中可以设置topic下queue的数量吗?」
当然可以。不仅可以重新设置queue的数量,还可以实时增减consumer,以应对不同流量的场景
「那这样说当queue或者consumer的数量发生变化的时候,需要重新执行负载均衡吧?」
是的,大家一般把这个过程叫做重平衡
下面我们来分享一下详细的细节
消息发送流程
消息发送主要有3种方式单向发送(只发送,不管结果),同步发送和异步发送
消息消费流程
消息是基于推还是拉?
消息消费的模式有两种方式:
- 拉取:Consumer不断从Broker拉取
- 推送:Broker向Consumer推送
这两种方式都有各自的缺点:
- 拉取:拉取的间隔不好确定,间隔太短没消息时会造成带宽浪费,间隔太长又会造成消息不能及时被消费
- 推送:「推送和速率难以适配消费速率」,推的太快,消费者消费不过来怎么办?推的太慢消息不能及时被消费
「看起来拉取和推送难以抉择」
然后就有大佬把拉取模式改了一下,即不会造成带宽浪费,也能基于消费的速率来决定拉取的频率!
「你猜怎么改的?」
其实很简单,Consumer发送拉取请求到Broker端,如果Broker有数据则返回,Consumer端再次拉取。如果Broker端没有数据,不立即返回,而是等待一段时间(例如5s)。
- 如果在等待的这段时间,有要拉取的消息,则将消息返回,Consumer端再次拉取。
- 如果等待超时,也会直接返回,不会将这个请求一直hold住,Consumer端再次拉取
「对了,这种策略就叫做长轮询」
「RocketMQ中有拉和推两种消费方式,但是推是基于长轮询做的」
具体消费流程
「拉取到消息后是怎么处理的呢?」
PullRequest类的成员变量如下图
当拉取到消息后,消息会被放入msgTreeMap,其中key为消息的offset,value为消息实体
「另外还有一个重要的属性dropped,和重平衡相关,重平衡的时候会造成消息的重复消费,具体机制不分析了,看专栏把」
msgCount(未消费消息总数)和msgSize(未消费消息大小)是和流控相关的
「什么是流控呢?」
就是流量控制,当消费者消费的比较慢时,减缓拉取的速度。如下图
当从阻塞队列中获取PullRequest时,并不会直接发起网络请求,而是先看看是否触发流控的规则,比如未消费的消息总数超过一定值,未消费的消息大小超过一定值等
接着就是收到响应,处理消息,并键PullRequest再次放入阻塞队列.
「是不是落了一个步骤?就是Consumer告诉Broker这部分消息我消费了?」
嗯嗯,你是不是以为提交offset的过程是同步的?其实并不是,「是异步的」
Consumer怎么提交offset?
当consumer消费完消息只是将offset存在本地,通过定时任务将offset提交到broker,另外broker收到提交offset的请求后,也仅仅是将offset存在map中,通过定时任务持久化到文件中
「这样就会造成消息的重复消费」
- Consumer消费完消息并不是实时同步到Broker的,而是将offset先保存在本地map中,通过定时任务持久化上去。这就导致消息被消费了,但是此时消费者宕机了导致offset没提交,下次没提交offset的这部分消息会被再次消费
- 即使offset被提交到了Broker,在还没来得及持久化的时候Broker宕机了,当重启的时候Broker会读取consumerOffset.json中保存的offset信息,这就会导致没持久化offset的这部分消息会被再次消费