2018-04-21 消息的延迟

每个人的想法不同

, RocketMQ 介绍的时候就说 是阿里从他们使用的上 解耦出来 近一步简化 便捷的 目的当然是 让其能快速入手和开发 如果不是在项目设计层面上 只是使用的话 从Git上下载该项目的源码 其中有一个包是专门的测试 实例的 只需要照猫画虎 

使用就可以了 

 1 不能有中文路径!

不能有中文路径!

 不能有中文路径!

 关系 两个接口 interface MQProducer 

 //生产者接口 

 { 实现该接口的只有一个 默认的 DefaultMQProducer DefaultMQProducer 

实现 MQProducer 接口的时候 

还继承了 ClientConfig类 (客户端配置类) 可以配置如

 sendMsgTimeout 超时时间

 producerGroup 消息最大多少 

超过多少压缩等等 

 关键方法 :

 send(Message) 发送一个消息到MQ 这个方法其实是调用 DefaultMQProducer构造方法

 创建的 defaultMQProducerImpl 类对象的 send(..)方法

 defaultMQProducerImpl 类 才是真正发送消息的核心类 

 defaultMQProducerImpl.send 方法

 --》 sendDefaultImpl

方法 sendDefaultImpl --》

 tryToFindTopicPublishInfo 来检测映射 队列是否存在

 是否正常 {

 final Segment[] segments; 这个 键值 不存在 不正常 :

 创建一个 TopicPublishInfo 到 segments 映射文件 同时 将 Topic (队列) 信息 

更新到NameServer中 } 

 sendDefaultImpl --》

 通过设置是失败重复次数 和 超时时间 来从新发送消息 

 详细 for (; times < 失败重复次数 && (结束时间 - 开始时间) < 配置的超时时间; times++) 

 sendDefaultImpl --》

sendKernelImpl 装载 配置 信息 --》

sendKernelImpl --》

this.mQClientFactory.getMQClientAPIImpl().sendMessage() 

 MQClientInstance mQClientFactory 对象

 是在 DefaultMQProducer start启动方式时候初始化的 MQClientManager.getInstance().getAndCreateMQClientInstance(this.defaultMQProducer,rpcHook); 

 --》 --》sendMessage { MQClientInstance --》

 MQClientAPIImpl mQClientAPIImpl MQClientAPIImpl.sendMessage() --> sendMessageSync switch (communicationMode) 同步 异步 单向 处理 默认是 同步 } 后续返回 SendResult sendResult 改类型描述当时 发送MQ 的最终状态 Message 消息的 Topic 不能为空 producer.shutdown(); 关闭 shutdown来清理资源,关闭网络连接,从MetaQ服务器上注销自己 } 发送消息负载的问题 { 看源码 是通过循环从 namesrv 获取的到 Topic 路由消息 (也就是有几个broker 每个 broker 有几个队列) 然后 记录当前发送过的 +1 备注 : 队列数量 小于 消费者数量 多余的消费者将不起做用 } 关于顺序消息发送 的问题 { 环境: 1 下单 2 付款 3 收货 3个状态 , 普通模式下 发送到队列中的 是轮询队列 将3个消息分别发送到多个队列中。 很可能会照成出现 先消费 2 在消费 1 流程错乱的情况 当然可以业务层处理 但是业务层处理比较麻烦 顺序消费的发送的原理 : 我们自己指定 消息将要添加的队列 SendResult sendResult = producer.send(msg, new MessageQueueSelector() { @Override public MessageQueue select(Listmqs, Message msg, Object arg) { Integer id = (Integer) arg; int index = id % mqs.size(); // 通过取于来 讲 同一个订单号 访入同一个队列中 // 前提是 队列数量没有变动 return mqs.get(index); } }, “10001”); // orderID “10001”是传递给回调方法的 自定义数据 Listmqs 就是从namesrv 获取的所有队列 } 备注 // 订单 Id String orderId = "20034568923546"; message.setKeys(orderId); // Keys 每个消息在业务局面的唯一标识码 通过 topic,key 来查询返条消息内容,以及消息被谁消费 查询的时候 非常重要 消费者 interface MQConsumer { // 回溯消费 { mqadmin resetOffsetByTime 命令 改方式 是通过消费的日志来恢复的 但是只能通过 消费的组来恢复 恢复消息后 也只能用改组来从新消费 -s : 时间戳的问题 可以是 毫秒 或者是从什么时候开始 } //拉取模式 interface MQPullConsumer: { } // 接收模式 长轮询模式 一次获取一批 消息 记录 批量和单条 内部实现 还是获取了所有的 可以获取到的队列消息 放入集合中 判断集合大小是否 大于设置的单次消费数量 小于 直接将其 消息集合 放入执行回调方法中 大于 使用的是For 循环 来单条处理 interface MQPushConsumer: { class DefaultMQPushConsumer extends ClientConfig implements MQPushConsumer DefaultMQPushConsumer 包含很多可以配置的信息 详情见文档 其中最主要的 有几个 messageModel 消息模型 支持以下两种 1、集群消费 2、广播消费 messageListener 消息监听器 consumeThreadMin 消费线程池数量 默认10 consumeThreadMax 消费线程池数量 默认20 重要的是 消费线程池 ! 这就说明 我发布一个 消费应用 消费逻辑就可以 N 个 处理! 不用自己搞了有没有!! 安默认的来算 20个消费逻辑 可以配置 而且还 可以横向 增加 消费应用 只要保持是一个组就可以了 难怪会在文档中 特意话一个 性能图啊!! 应用通常吐 Consumer 对象注册一个 Listener 接口,一旦收到消息,Consumer 对象立刻回调 Listener 接口方法 MessageListenerOrderly 这个是有序的 MessageListenerConcurrently 这个是无序的 关键方法 DefaultMQPushConsumer registerMessageListener(new implements MessageListenerConcurrently) { public void registerMessageListener(MessageListenerConcurrently messageListener) { this.messageListener = messageListener; // 给自己复制一个 消费逻辑类对象 方法后续查询 替换修改等 关键方法 this.defaultMQPushConsumerImpl.registerMessageListener(messageListener); // 将消费逻辑类告诉 调用者类 } } 关键方法 start DefaultMQPushConsumer.start() --> DefaultMQPushConsumerImpl.start() { this.serviceState 来记录设置当前程序运行状态 来做多态 checkConfig() 检查配置 初始化赋值 copySubscription() 拷贝订阅者信息 赋值 消费逻辑类 // 有就获取 没有就创建一个 this.mQClientFactory = MQClientManager.getInstance().getAndCreateMQClientInstance(this.defaultMQPushConsumer,this.rpcHook); 接着初始化一系列信息 // 加载消费进度 this.offsetStore.load(); // 该方法有两个实现 一个是本地 this.readLocalOffset() 获取数据 { //获取文件字符串 String content = MixAll.file2String(this.storePath); OffsetSerializeWrapper offsetSerializeWrapper =OffsetSerializeWrapper.fromJson(content, OffsetSerializeWrapper.class); 可以看出 淘宝使用的是JSON } if (this.getMessageListenerInner() instanceof MessageListenerOrderly) else if (this.getMessageListenerInner() instanceof MessageListenerConcurrently) 判断 消费逻辑类 实现那个接口 创建对应的 ConsumeMessageOrderlyService 对象 ConsumeMessageConcurrentlyService 该实现为空 本地 ConsumeMessageOrderlyService.start() { 创建并执行一个周期性的动作成为了第一个在给定的初始延迟之后,随后用给定的时期,这是执行后将开始initialDelay然后initialDelay +,然后initialDelay + 2 *时期,等等。如果任何执行任务遇到异常,后续执行的镇压。否则,只会终止的任务通过取消或终止执行器。如果执行这个任务花费的时间比其期,然后后续执行可能会迟到,但不会同时执行。 //就是一个定时器 this.scheduledExecutorService.scheduleAtFixedRate(new Runnable() { @Override public void run() { ConsumeMessageOrderlyService.this.lockMQPeriodically(); } }, 1000 * 1, ProcessQueue.RebalanceLockInterval, TimeUnit.MILLISECONDS); scheduleAtFixedRate 应该是一个线程池管理 不用去关心 scheduleAtFixedRate 方法 看 ConsumeMessageOrderlyService.this.lockMQPeriodically() { this.defaultMQPushConsumerImpl.getRebalanceImpl().lockAll() 是 RebalanceImpl.lockAll() // 将读取到的消息上锁 } } // 最关键的服务启动了 // 正在的启动了 mQClientFactory.start(); { synchronized (this){ //Start request-response channel 启动请求-响应通道 this.mQClientAPIImpl.start(); //Start various schedule tasks 开始各种安排任务 启动定时任务 其中就包含 获取到MQ消息消费的 回调方法 this.startScheduledTask(); //Start pull service 开始拉取服务 this.pullMessageService.start(); //Start rebalance service 启动负载均衡 // 该服务非常重要 this.rebalanceService.start(); //Start push service 开始推动服务 this.defaultMQProducer.getDefaultMQProducerImpl().start(false); } } } } 指定 group 订阅 topic 注册消息监听处理器,当消息到来时消费消息 消费端 Start 复制订阅关系 初始化 rebalance 变量 构建 offsetStore 消费进度存储对象 启动消费消息服务 向 mqClientFactory 注册本消费者 启动 client 端远程通信 * 加载消费进度 Loand() * 启动定时任务 定时获取 nameserver 地址 定时从 nameserver 获取 topic 路由信息 定时清理下线的 borker 定时向所有 broker 发送心跳信息, (包括订阅关系) * 定时持久化 Consumer 消费进度(广播存储到本地,集群存储到 Broker) PS: 这里也是是个关键 持久化消费进度 是用来记录当前 组的消费情况 可以做到 回溯消费 和宕机等情况下 启动后接着上次执行消费 统计信息打点 动态调整消费线程池 启动拉消息服务 PullMessageService 启动消费端负载均衡服务 RebalanceService 从 namesrv 更新 topic 路由信息 向所有 broker 发送心跳信息, (包括订阅关系) 唤醒 Rebalance 服务线程 } // 有些懒得看了 直接看别人 得了 消费端负载均衡 { 这个也是个重点 消费端会通过 RebalanceService 线程,10 秒钟做一次基于 topic 下的所有队列负载 消费端 遍历自己所有的 Topic 获取 Topic 下所有的 队列 (一个Topic 包含对个队列 默认是 4 个 有别于其他MQ ) 从 broker 获取当前 组(group)的所有消费端( 有心跳的) 获取队列集合SetmqSet 现在队列分配策略实例 AllocateMessageQueueStrategy 执行分配算法 { 1:平均分配算法 : 其实是类似于分页的算法 将所有 queue 排好序类似于记录 将所有消费端 consumer 排好序,相当于页数 然后获取当前 consumer 所在页面应该分配到的 queue 2:按照配置来分配队列 : 消费服务启动的时候 就指定好了要消费的 是哪个队列 3:按照机房来配置队列 : Consumer 启动的时候会指定在哪些机房的消息 (应该是指定 broker) 获取指定机房的 queue 然后在执行如 1)平均算法 } 根据分配队列的结果更新 ProccessQueueTable{ 比对 mqSet 将多余的队列删除, 当 broker 当机或者添加,会导致分配到 mqSet 变化, 添加新增队列, 比对 mqSet,给新增的 messagequeue 构建长轮询对象 PullRequest 对象,会从 broker 获取消费的进度 构建这个队列的 ProcessQueue 将 PullRequest 对象派发到长轮询拉消息服务(单线程异步拉取) 注:ProcessQueue 正在被消费的队列, (1) 长轮询拉取到消息都会先存储到 ProcessQueue 的 TreeMap集合中,消费调后会删除掉,用来控制 consumer 消息堆积, TreeMapkey 是消息在此 ConsumeQueue 队列中索引 (2) 对于顺序消息消费 处理 locked 属性:当 consumer 端向 broker 申请锁队列成功后设置 true, 只有被锁定 的 processqueue 才能被执行消费 rollback: 将消费在 msgTreeMapTemp 中的消息,放回 msgTreeMap 重新消费 commit: 将临时表 msgTreeMapTemp 数据清空,代表消费完成,放回最大偏移 值 (3) 这里是个 TreeMap,对 key 即消息的 offset 进行排序,这个样可以使得消息进 行顺序消费 } } 长轮询 { Rocketmq 的消息是由 consumer 端主动到 broker拉取的, consumer 向 broker 发送拉消息 请求, PullMessageService 服务通过一个线程将阻塞队列 LinkedBlockingQueue中的 PullRequest 到 broker 拉取消息 DefaultMQPushConsumerImpl 的 pullMessage(pullRequest)方法执行向 broker 拉消息动作 1. 获取 ProcessQueue 判读是否 drop 的, drop 为 true 返回 2. 给 ProcessQueue 设置拉消息时间戳 3. 流量控制,正在消费队列中消息(未被消费的)超过阀值,稍后在执行拉消息 4. 流量控制,正在消费队列中消息的跨度超过阀值(默认 2000) ,稍后在消费 5. 根据 topic 获取订阅关系 6. 构建拉消息回调对象 PullBack, 从 broker 拉取消息(异步拉取)返回结果是回调 7. 从内存中获取 commitOffsetValue //TODO 这个值跟 pullRequest.getNextOffset 区别 8. 构建 sysFlag pull 接口用到的 flag 9. 调底层通信层向 broker 发送拉消息请求 如果 master 压力过大,会建议去 slave 拉取消息 如果是到 broker 拉取消息清楚实时提交标记位,因为 slave 不允许实时提交消费进 度,可以定时提交 //TODO 关于 master 拉消息实时提交指的是什么? 10. 拉到消息后回调 PullCallback 处理 broker 返回结果 pullResult 更新从哪个 broker(master 还是 slave)拉取消息 反序列化消息 消息过滤 消息中放入队列最大最小 offset, 方便应用来感知消息堆积度 将消息加入正在处理队列 ProcessQueue 将消息提交到消费消息服务 ConsumeMessageService 流控处理, 如果 pullInterval 参数大于 0 (拉消息间隔,如果为了降低拉取速度, 可以设置大于 0 的值) , 延迟再执行拉消息, 如果 pullInterval 为 0 立刻在执行拉 消息动作 看图 人家花的不错 很明了 } push 消息 { PS: 长轮询向broker拉取消息是批量拉取的, 默认设置批量的值为pullBatchSize = 32, 可配置 消费端 consumer 构建一个消费消息任务 ConsumeRequest 消费一批消息的个数是 可配置的 consumeMessageBatchMaxSize = 1, 默认批量个数为一个 也就是说 每次传递给回调方法的 参数 消息集合 的解释 ConsumeRequest 任务 run 方法执行 判断 proccessQueue 是否被 droped 的, 废弃直接返回,不在消费消息 构建并行消费上下文 给消息设置消费失败时候的 retry topic,当消息发送失败的时候发送到 topic 为%RETRY%groupname 的队列中 调 MessageListenerConcurrently 监听器的 consumeMessage 方法消费消息,返回消 费结果 如果 ProcessQueue 的 droped 为 true,不处理结果,不更新 offset, 但其实这里消 费端是消费了消息的,这种情况感觉有被重复消费的风险 处理消费结果 : 消费成功, 对于批次消费消息, 返回消费成功并不代表所有消息都消费成功, 但是消费消息的时候一旦遇到消费消息失败直接放回,根据 ackIndex 来标记 成功消费到哪里了 消费失败, ackIndex 设置为-1 广播模式发送失败的消息丢弃, 广播模式对于失败重试代价过高,对整个集 群性能会有较大影响,失败重试功能交由应用处理 集群模式, 将消费失败的消息一条条的发送到 broker 的重试队列中去,如果 此时还有发送到重试队列发送失败的消息, 那就在 cosumer 的本地线程定时 5 秒钟以后重试重新消费消息, 在走一次上面的消费流程。 删除正在消费的队列 processQueue 中本次消费的消息,放回消费进度 更新消费进度, 这里的更新只是一个内存 offsetTable 的更新,后面有定时任务定 时更新到 broker 上去 PS: 关于消费成功 和 失败的 问题 在集群模式下 回调方法设置为消费失败 会将当前消费的失败消息 发送到 broker 的容错度列中 等待N次+ 从新消费 。 push 消费-顺序消费消息 顺序消费服务 ConsumeMessageConcurrentlyService 构建的时候 构建一个线程池来接收消费请求 ConsumeRequest 构建一个单线程的本地线程, 用来稍后定时重新消费 ConsumeRequest, 用来执行 定时周期性(一秒)钟锁队列任务 周期性锁队列 lockMQPeriodically 获取正在消费队列列表 ProcessQueueTable 所有 MesssageQueue, 构建根据 broker 归类成 MessageQueue 集合 Map> 遍历 Map>的 brokername, 获取 broker 的 master 机器地址, 将brokerName的Set发送到broker请求锁定这些队列。 在broker 端锁定队列,其实就是在 broker 的 queue 中标记一下消费端,表示这个 queue 被某个 client 锁定。 Broker 会返回成功锁定队列的集合, 根据成功锁定的 MessageQueue,设置对应的正 在处理队列 ProccessQueue 的 locked 属性为 true 没有锁定设置为 false 通过长轮询拉取到消息后会提交到消息服务 ConsumeMessageOrderlyService, ConsumeMessageOrderlyService 的 submitConsumeRequest 方法构建 ConsumeRequest 任务提 交到线程池。ConsumeRequest 是由 ProcessQueue 和 Messagequeue 组成。 ConsumeRequest 任务的 run 方法 判断 proccessQueue 是否被 droped 的, 废弃直接返回,不在消费消息 每个 messagequeue 都会生成一个队列锁来保证在当前 consumer 内,同一个队列串行 消费, 判断 processQueue 的 lock 属性是否为 true, lock 属性是否过期, 如果为 false 或者过期, 放到本地线程稍后锁定在消费。 如果 lock 为 true 且没有过期,开始消费消息 计算任务执行的时间如果大于一分钟且线程数小于队列数情况下,将 processqueue, messagequeue 重新构建 ConsumeRequest 加到线程池 10ms 后在消费,这样防止个别队列被 饿死 获取客户端的消费批次个数,默认一批次为一条 从 proccessqueue 获取批次消息, processqueue.takeMessags(batchSize) , 从 msgTreeMap 中移除消息放到临时 map 中 msgTreeMapTemp, 这个临时 map 用来回滚消息和 commit 消 息来实现事物消费 调回调接口消费消息,返回状态对象 ConsumeOrderlyStatus 根据消费状态,处理结果 1) 非事物方式,自动提交 消息消息状态为 success: 调用 processQueue.commit 方法 获取 msgTreeMapTemp 的最后一个 key,表示提交的 offset 清空 msgTreeMapTemp 的消息,已经成功消费 2) 事物提交,由用户来控制提交回滚(精卫专用) 更新消费进度, 这里的更新只是一个内存 offsetTable 的更新, 后面有定时任务定时更 新到 broker 上去 } 关闭 { shutdown DefaultMQPushConsumerImpl 关闭消费端 关闭消费线程 将分配到的 Set的消费进度保存到 broker 利 用 DefaultMQPushConsumerImpl 获 取 ProcessQueueTable的 keyset 的 messagequeue 去获取 RemoteBrokerOffsetStore.offsetTableMap 中的消费进

                度,

                offsetTable 中 的 messagequeue 的 值, 在 update 的时候如果 没有对应 的

                Messagequeue 会构建, 但是也会 rebalance 的时候将没有分配到的 messagequeue

                删除

                rebalance 会将 offsettable 中没有分配到 messagequeue 删除,  但是在从 offsettable

                删除之前会将 offset 保存到 broker


                Unregiser 客户端


                pullMessageService 关闭


                scheduledExecutorService 关闭,关闭一些客户端的起的定时任务


                mqClientApi 关闭


                rebalanceService 关闭



        }

补充 一

消息的延迟

    {

        通过测试程序可以看出  通过设置 message 的DelayTimeLevel 可以设置消息延迟处理

    }

    消息重试机制  容错机制

    {

        通过源码可以看出 消费方法的返回对象 只有两个值


        CONSUME_SUCCESS // 消费成功


        RECONSUME_LATER // 消费失败,稍后重试 



        CONSUME_SUCCESS 无异议 


        关键是 RECONSUME_LATER


            我们可以通过 RECONSUME_LATER 来容错。 阿里提供的这个  重试机制 是通过添加到一个错误队列中 设置期  DelayTimeLevel 来实现的


            第一次消费的时候  打印 MessageExt 没有 properties属性的详细信息  返回 RECONSUME_LATER 稍后重试


            [queueId=0, storeSize=106, queueOffset=0, sysFlag=0, bornTimestamp=1458803327047, bornHost=/10.10.12.27:41697, storeTimestamp=1458803327059, storeHost=/10         .10.12.27:10911, msgId=0A0A0C1B00002A9F0000000000031F10, commitLogOffset=204560, bodyCRC=910247988, reconsumeTimes=0, preparedTransactionOffset=0, toStrin         g()=Message [topic=Topic2, flag=0, properties={MAX_OFFSET=1, MIN_OFFSET=0}, body=9]]

            第二次消费的时候


            [queueId=0, storeSize=260, queueOffset=0, sysFlag=0, bornTimestamp=1458803327047, bornHost=/10.10.12.27:41697, storeTimestamp=1458803516104, storeHost=/10         .10.12.27:10911, msgId=0A0A0C1B00002A9F0000000000032079, commitLogOffset=204921, bodyCRC=910247988, reconsumeTimes=1, preparedTransactionOffset=0, toStrin         g()=Message [topic=Topic2, flag=0, properties={ORIGIN_MESSAGE_ID=0A0A0C1B00002A9F0000000000031F10, DELAY=3, REAL_TOPIC=%RETRY%ConsumerGroupName, WAIT=fals         e, RETRY_TOPIC=Topic2, MAX_OFFSET=1, MIN_OFFSET=0, REAL_QID=0}, body=9]]

            可以看出 消息  虽然  queueId 是相同的值 0 但是  msgId 却变了 ! 同时用rocketmq-console 来监控 该 消费者 你会发现 多了个 Topic  %RETRY%ConsumerGroupName 


            所有 可以得出一个结论 


            我们返回 消费失败,稍后重试  RECONSUME_LATER  消息会回到 broker 同时创建一条相同的消息 访如  %RETRY%ConsumerGroupName 

            同时 设置 该 消息的 延迟消费 每次延迟时间 +1 


            我觉得可以通过 reconsumeTimes 来做一个简单的容错  获取 当前消费的 次数  是否大于 设定值  大于就说明其是死信  记录到异常数据库



    }

备注问题:

    背景:

          生产端 使用 linux 服务器 (UTF-8 编码)

              Message me = new Message();

              me.setBody("中国人".getBytes());

              producer.send(me);

          消费端 使用  Windows 服务器 (GBK 编码)

              MessageExt msg = msgs.get(0);

              String strBody = new String(msg.getBody());

    问题 :

          生产端无问题,消费端 存在 字符集 编码问题 。

    原因 :

          生产端发送给MQ 的数据是 字节 !  getBytes() 不指定字节格式 会默认使用 本地系统编码格式  linux下通常是 UTF-8 格式

          消费端由于是Windows 本地系统的编码格式是 GBK 格式 。

          new String(msg.getBody()); 方法 不指定编码格式 使用的也是 本地系统编码格式 也就是 GBK格式

          可能会说 直接 GBK转换UTF-8就好了,但是! GBK 对应的是2个字节  UTF-8 对应的是3个字节  当出现 3个字的中文或者 特殊符号的时候

          转换过程中会 主动 2补1 所有 “中国人”  这里 人 字就会乱码

          String iso = new String(strBody.getBytes("UTF-8"), "ISO-8859-1");

            strBody = new String(iso.getBytes("ISO-8859-1"), "UTF-8");


          上面这种解决方法在 测试方法中有效  在消费端 具体消费类中的消费方法 并未生效 

          这里希望有大神可以指出为什么!?

    解决方法:

          MessageExt msg = msgs.get(0);

          strBody = new String(msg.getBody(), "UTF-8"); 

          在第一次 字节转换成字符串的时候 就指定 该字节按照 UTF-8 格式转换! 

      PS:

          虽然解决方法很简单,但是 稍微不注意 就会跳过这里啊  劲量做到统一开发环境啊!

      消费端 多实例问题

      经过试验,一个消费 组 只能处理一个 Topic 下的一个 Tags  !

努力或许不会有收获,但是不努力却一定不会有收获!

推荐阅读更多精彩内容