- 《RabbitMQ 实战指南》第五章 RabbitMQ 进阶(下)
- 一、持久化
- 二、生产者确认
- 1.事务机制
- 2.发送方确认机制
- 三、消费端要点介绍
- 1.消息分发
- 2.消息顺序性
- 3.启用 QueueingConsumer
- 四、消息传输保障
“持久化” 这个词汇在前面的篇幅中有多次提及,持久化可以提高 RabbitMQ 的可靠性,以防在异常情况(重启、关闭、宕机等)下的数据丢失。本书针对这个概念做一个总结。RabbitMQ 的持久化分为三个部分:交换器的持久化、队列的持久化和消息的持久化
交换器的持久化是通过在声明队列是将 durable 参数置为 true 实现的。如果交换器不设置持久化,那么在 RabbitMQ 服务重启之后,相关的交换器元数据会丢失,不过消息不会丢失,只是不能将消息发送到这个交换器中了。对一个长期使用的交换器来说,建议将其置为持久化的
队列的持久化是通过在声明队列时将 durable 参数置为 true 实现的。如果队列不设置持久化,那么在 RabbitMQ 服务重启之后,相关队列的元数据会丢失,此时数据也会丢失。正所谓 “皮之不存,毛将焉附”,队列都没有了,消息又能存在哪里呢?
队列的持久化能保证其本身的元数据不会因异常情况而丢失,但是并不能保证内部所存储的消息不会丢失。要确保消息不会丢失,需要将其设置为持久化。通过将消息的投递模式(BasicProperties 中的 deliveryMode 属性)设置为 2 即可实现消息的持久化。前面示例中多次提及的 MessageProperties.PERSISTENT_TEXT_PLAIN 实际上是封装了这个属性:
public static final BasicProperties PERSISTENT_TEXT_PLAIN = new BasicProperties("text/plain", null, null, 2, //deliveryMode 0, null, null, null, null, null, null, null, null, null, );
设置了队列和消息的持久化,当 RabbitMQ 服务重启之后,消息依旧存在。单单只设置队列持久化,重启之后消息会丢失;单单只设置消息的持久化,重启之后队列消息,继而消息也丢失。单单设置消息持久化而不设置队列的持久化显得毫无意义
注意要点:
可以将所有的消息都设置为持久化,但是这样会严重影响 RabbitMQ 的性能。写入磁盘的速度比写入内存的速度慢得不止一点点。对于可靠性要求不是那么高的消息可以不采用持久化处理以提高整体的吞吐量。在选择是否要将消息持久化时,需要在可靠性和吞吐量之间做一个权衡
将交换器、队列、消息都设置了持久化之后就能百分之百保证数据不丢失了吗?答案是否定的
首先从消费者来说,如果在订阅消费队列时将 autoAck 参数设置为 true,那么当消费者接收到相关消息之后,还没来得及处理就宕机了,这样也算数据丢失。这种情况很好解决,将 autoAck 参数设置为 false,并进行手动确认
其次,在持久化的消息正确存入 RabbitMQ 之后,还需要有一段时间(虽然很短,但是不可忽视)才能存入磁盘之中。RabbitMQ 并不会为每条消息都进行同步存盘(调用内核的 fsync 方法)的处理,可能仅仅保存到 *** 作系统缓存之中而不是物理磁盘之中。如果在这段时间内 RabbitMQ 服务节点发生了宕机、重启等异常情况,消息保存还没来得及落盘,那么这些消息将会丢失
这个问题怎么解决呢?这里可以引入 RabbitMQ 的镜像队列机制(详细参考 9.4 节),相当于配置了副本,如果主节点(master)在此特殊时间内挂掉,可以自动切换到从节点(slave),这样有效地保证了高可用,除非整个集群都挂掉。虽然这样也不能完全保证 RabbitMQ 消息不丢失,但是配置了镜像队列要比没有配置镜像队列的可靠性要高很多,在实际生产环境中的关键业务队列一般都会设置镜像队列
还可以在发送端引入事务机制或者发送方确认机制来保证消息已经正确地发送并存储至 RabbitMQ 中,前提还要保证在调用 channel.basicPublish 方法的时候交换器能够将消息正确路由到相应的队列之中
二、生产者确认在使用 RabbitMQ 的时候,可以通过消息持久化 *** 作来解决因为服务器的异常崩溃而导致的消息丢失,除此之外,我们还会遇到一个问题,当消息的生产者将消息发送出去之后,消息到底有没有正确地到达服务器呢?如果不进行特殊配置,默认情况下发送信息的 *** 作是不会返回任何信息给生产者的,也就是默认情况下生产者是不知道消息有没有正确地到达服务器。如果在消息到达服务器之前已经丢失,持久化 *** 作也解决不了这个问题,因为消息根本没有到达服务器,何谈持久化?
RabbitMQ 针对这个问题,提供了两种解决方式:
- 通过事务机制实现
- 通过发送方确认(publisher /confirm/i)机制实现
RabitMQ 客户端中与事务机制相关的方法有三个:channel.txSelect、channel.txCommit 和 channel.txRollback。channel.txSelect 用于将当前的信道设置成事务模式,channel.txCommit 用于提交事务,channel.txRollback 用于事务回滚。在通过 channel.txSelect 方法开启事务之后,我们便可以发布消息给 RabbitMQ 了,如果事务提交成功,则消息一定到达了 RabbitMQ 中,如果在事务提交执行之前由于 RabbitMQ 异常崩溃或者其他原因抛出异常,这个时候我们便可以将其捕获,进而通过执行 channel.txRollback 方法来实现事务回滚。注意这里的 RabbitMQ 中的事务机制与大多数数据库中的事务概念并不相同,需要注意区分
关键示例代码如下所示:
channel.txSelect(); channel.basicPublish(EXCHANGE_NAME, ROUTING_KEY, MessageProperties.PERSISTENT_TEXT_PLAIN, "transaction messages".getBytes() ); channel.txCommit();
上面代码对应的 AMQP 协议流转过程如图 4-8 所示
可以发现开启事务机制与不开启相比多了四个步骤:
- 客户端发送 Tx.Select,将信道置为事务模式
- Broker 回复 Tx.Select-Ok,确认已将信道置为事务模式
- 在发送完消息之后,客户端发送 Tx.Commit 提交事务
- Broker 回复 Tx.Commit-Ok,确认事务提交
上面所陈述的是正常的情况下的事务机制运转过程,而事务回滚是什么样子呢?我们先来参考下面一段示例代码,来看看怎么使用事务回滚
try{ channel.txSelect(); channel.basicPublish(exchange, routingKey, MessageProperties.PERSISTENT_TEXT_PLAIN, msg.getBytes() ); int result = 1/ 0; channel.txCommit(); } catch(Exception e){ e.printStackTrace(); channel.txRollback(); }
上面代码中很明显有一个 java.lang.ArithmeticException,在事务提交之前捕获到异常,之后显式地提交事务回滚,其 AMQP 协议流转过程如图 4-9 所示
如果要发送多条消息,则将 channel.basicPublish 和 channel.txCommit 等方法包裹进循环内即可,可以参考如下示例代码:
channel.txSelect(); for(int i=0; i < LOOP_TIMES; i++){ try{ channel.basicPublish("exchange", "routingKey", null, ("messages" + i).getBytes() ); channel.txCommit(); } catch(IOException e){ e.printStackTrace(); channel.txRollback(); } }
事务确实能够解决消息发送方和 RabbitMQ 之间消息确认的问题,只有消息成功被 RabbitMQ 接收,事务才能提交成功,否则便可在捕获异常之后进行事务回滚,与此同时可以进行消息重发。但是使用事务机制会 “吸干” RabbitMQ 的性能,那么有没有更好的方法既能保证消息发送方确认消息已经正确送达,又能基本上不带来性能上的损失呢?从 AMQP 协议层面来看并没有更好的办法,但是 RabbitMQ 提供了一个改进方案,即发送方确认机制
2.发送方确认机制前面介绍了 RabbitMQ 可能会遇到的一个问题,即消息发送方(生产者)并不知道消息是否真正地到达了 RabbitMQ。随后了解到在 AMOP 协议层面提供了事务机制来解决这个问题,但是采用事务机制实现会严重降低 RabbitMQ 的消息吞吐量,这里就引入了一种轻量级的方式 —— 发送方确认(publisher /confirm/i)机制
生产者将信道设置成 /confirm/i(确认)模式,一旦信道进入 confirm 模式,所有在该信道上面发布的消息都会被指派一个唯一的 ID(从 1 开始),一旦消息被投递到所有匹配的队列之后,RabbitMQ 就会发送一个确认(Basic.Ack)给生产者(包含消息的唯一 ID),这就使得生产者知晓消息已经正确到达了目的地了。如果消息和队列是可持久化的,那么确认消息会在消息写入磁盘之后发出。RabbitMQ 回传给生产者的确认消息中的 deliveryTag 包含了确认消息的序号,此外 RabbitMQ 也可以设置 channel.basicAck 方法中的 multiple 参数,表示到这个序号之前的所有消息都已经得到了处理,可以参考图 4-10。注意辨别这里的确认和消费时的确认之间的异同
事务机制在一条消息发送之后会使发送端阻塞,以等待 RabbitMQ 的回应,之后才能继续发送下一条消息。相比之下,发送方确认机制最大的好处在于它是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认之后,生产者应用程序便可以通过回调该方法来处理该确认消息,如果 RabbitMQ 因为自身内部错误导致消息丢失,就会发送一条 nack(Basic.Nack)命令,生产者应用程序同样可以在回调方法中处理该 nack 命令
生产者通过调用 channel.confirmSelect 方法(即 /confirm/i.Select 命令)将信道设置为 confirm 模式,之后 RabbitMQ 会返回 /confirm/i.Select-Ok 命令表示同意生产者将当前信道设置为 confirm 模式。所有被发送的后续消息都被 ack 或者 nack 一次,不会出现一条消息即被 ack 又被 nack 的情况,并且 RabbitMQ 也没有对消息被 confirm 的快慢做任何保证
下面看一下 publisher confirm 机制怎么运作,简要代码如下所示:
try{ channel./confirm/iSelect(); //将信道置为 publisher confirm 模式 //之后正常发送消息 channel.basicPublish("exchange", "routingKey", null, "publisher confirm test".getBytes() ); if(!channel.waitFor/confirm/is()){ System.out.println("send message failed"); //do something else ... } } catch(InterruptedException e){ e.printStackTrace(); }
如果发送多条消息,只需要将 channel.basicPublish 和 channel.waitForConfirms 方法包裹在循环里面即可,可以参考事务机制,不过不需要把 channel.confirmSelect 方法包裹在循环内部
在 publisher confirm 模式下发送多条消息的 AMQP 协议流转过程可以参考图 4-11
对于 channel.waitForConfirms 而言,在 RabbitMQ 客户端中它有 4 个同类的方法:
boolean waitFor/confirm/is() throws InterruptedException; boolean waitFor/confirm/is(long timeout) throws InterruptedException, TimeoutException; void waitFor/confirm/isOrDie() throws IOException, InterruptedException; void waitFor/confirm/isOrDie(long timeout) throws IOException, InterruptedException, TimeoutException;
如果信道没有开启 publisher confirm 模式,则调用任何 waitForConfirms 方法都会报出 java.lang.IllegalStateException。对于没有参数的 waitForConfirms 方法来说,其返回的条件是客户端收到了相应的 Basic.Ack/.Nack 或者被中断。参数 timeout 表示超时时间,一旦等待 RabbitMQ 回应超时就会抛出 java.util.concurrent.TimeoutException 的异常。两个 waitForConfirmsOrDie 方法在接收到 RabbitMQ 返回的 Basic.Nack 之后会抛出 java.io.IOException。业务代码可以根据自身的特性灵活地运用这四种方法来保障消息的可靠发送
前面提到过 RabbitMQ 引入了 publisher cofirm 机制来弥补事务机制的缺陷,提高了整体的吞吐量,那么我们来对比下两者之间的 QPS,测试代码可以参考上面的示例代码
测试环境:客户端和 Broker 机器配置 —— CPU 为 24 核、主频为 2500Hz、内存为 64GB、硬盘为 1TB.客户端发送的消息体大小为 10B,单线程发送,并且消息都进行持久化处理
测试结果如图 4-12 所示
图 4-12 中的横坐标表示测试的次数,纵坐标表示 QPS。可以发现 publisher confirm 与事务机制相比,QPS 并没有提高多少,难道是 RabbitMQ 欺骗了我们?
我们再来回顾下前面的示例代码,可以发现 publisher confirm 模式是每发送一条消息后就调用 channel.waitForConfirms 方法,之后等待服务端的确认,这实际上是一种串行同步等待的方式。事务机制和它一样,发送消息之后等待服务端确认,之后再发送消息。两者的存储确认原理相同,尤其对于持久化的消息来说,两者都需要等待消息确认落盘之后才会返回(调用 Linux 内核的 fsync 方法)。在同步等待的方式下,publisher confirm 机制发送一条消息需要通信交互的命令是 2 条:Basic.Publish 和 Basic.Ack;事务机制是 3 条:Basic.Publish、Tx.Commit/.Commit-Ok(或者 Tx.Rollback/.Rollback-Ok),事务机制多了一个命令帧报文的交互,所以 QPS 会略微下降
注意要点:
- 事务机制和 publisher confirm 机制两者是互斥的,不能共存
- 事务机制和 publisher confirm 机制确保的是消息能够正确地发送至 RabbitMQ,这里的 “发送至 RabbitMQ” 的含义是指消息被正确地发往至 RabbitMQ 的交换器,如果此交换器没有匹配的队列, 那么消息也会丢失。所以在使用这两种机制的时候要确保所涉及的交换器能够有匹配的队列。更进一步地讲,发送方要配合 mandatory 参数或者备份交换器一起使用来提高消息传输的可靠性
publisher confirm 的优势在于并不一定需要同步确认。这里我们改进了一下使用方式,总结有如下两种:
- 批量 confirm 方法:每发送一批消息后,调用 channel.waitForConfirms 方法,等待服务器的确认返回
- 异步 confirm 方法:提供一个回调方法,服务端确认了一条或者多条消息后客户端会回调这个方法进行处理
在批量 confirm 方法中,客户端程序需要定期或者定量(达到多少条),亦或者两者结合起来调用 channel.waitForConfirms 来等待 RabbitMQ 的确认返回。相比于前面示例中的普通 confirm 方法,批量极大地提升了 confirm 的效率,但是问题在于出现返回 Basic.Nack 或者超时情况时,客户端需要将这一批次的消息全部重发,这会带来明显的重复消息数量,并且当消息经常丢失时,批量 confirm 的性能应该是不升反降的
批量 confirm 方法的示例代码如下所示:
try{ channel./confirm/iSelect(); int MsgCount = 0; while(true){ channel.basicPublish("exchange", "routringKey", null, "batch confirm test".getBytes() ); //将发送出去的消息存入缓存中,缓存可以是 //一个 ArrayList 或者 BlockingQueue 之类的 if(++MsgCount >= BATCH_COUNT){ MsgCount = 0; try{ if(channel.waitFor/confirm/is()){ //将缓存中的消息清空 } //将缓存中的消息重新发送 } catch(InterruptedException e){ e.printStackTrace(); //将缓存中的消息重新发送 } } } } catch(IOException e){ e.printStackTrace(); }
异步 confirm 方法的编程实现最为复杂。在客户端 Channel 接口中提供的 addConfirmListener 方法可以添加 ConfirmListener 这个回调接口,这个 ConfirmListener 接口包含两个方法:handleAck 和 handleNack,分别用来处理 RabbitMQ 回传的 Basic.Ack 和 Basic.Nack。在这两个方法中都包含有一个参数 deliveryTag(在 publisher confirm 模式下用来标记消息的唯一有序序号)。我们需要为每一个信道维护一个 “un/confirm/i” 的消息序号集合,每发送一条消息,集合中的元素加 1,每当调用 ConfirmListener 中的 handleAck 方法时,“un/confirm/i” 集合中删掉相应的一条(multiple 设置为 false)或者多条(multiple 设置为 true)记录。从程序运行效率上来看,这个 “un/confirm/i” 集合最好采用有序集合 SortedSet 的存储结构。事实上,Java 客户端 SDK 中的 waitForConfirms 方法也是通过 SortedSet 维护消息序号的。下列代码为我们演示了异步 confirm 的编码实现,其中的 confirmSet 就是一个 SortedSet 类型的集合
channel./confirm/iSelect(); channel.add/confirm/iListener(new /confirm/iListener(){ public void handleAck(long deliveryTag, boolean multiple) throws IOException { System.out.println("Nack, SeqNo: " + deliveryTag + ", multiple: " + multiple); if(multiple){ /confirm/iSet.headSet(deliveryTag - 1).clear(); }else{ /confirm/iSet.remove(deliveryTag); } } public void handleNack(long deliveryTag, boolean multiple) throws IOException { if(multiple){ /confirm/iSet.headSet(deliveryTag - 1).clear(); }else{ /confirm/iSet.remove(deliveryTag); } //注意这里需要添加处理消息重发的场景 } } ); //下面是演示一直发送消息的场景 while(true){ long nextSeqNo = channel.getNextPublishSeqNo(); channel.basicPublish(/confirm/iConfig, exchangeName, /confirm/iConfig.routingKey, MessageProperties.PERSISTENT_TEXT_PLAIN, /confirm/iConfig.msg_10B.getBytes() ); /confirm/iSet.add(nextSeqNo); }
最后我们将事务、普通 /confirm/i、批量 confirm 和异步 confirm 这 4 种方式放到一起来比较一下彼此的 QPS。测试环境和数据和图 4-12 中的测试相同,具体测试对比如图 4-13 所示
可以看到批量 confirm 和异步 confirm 这两种方式所呈现的性能要比其余两种好得多。事务机制和普通 confirm 的方式吞吐量很低,但是编程方式简单,不需要再客户端维护状态(这里指的是维护 deliveryTag 及缓存未确认的消息)。批量 confirm 方式的问题在于遇到 RabbitMQ 服务端返回 Basic.Nack 需要重发批量消息而导致的性能降低。异步 confirm 方式编程模型最为复杂,而且和批量 confirm 方式一样需要在客户端维护状态。在实际生产环境中采用何种方式,这里就仁者见仁智者见智了,不过强烈建议读者使用异步 confirm 的方式
三、消费端要点介绍 1.消息分发当 RabbitMQ 队列拥有多个消费者时,队列收到的消息将以轮询(round-robin)的分发方式发送给消费者。每条消息只会发送给订阅列表里的一个消费者。这种方式非常适合扩展,而且它是专门为并发程序设计的。如果现在负载加重,那么只需要创建更多的消费者处理消息即可
很多时候轮询的分发机制也不是那么优雅。默认情况下,如果有 n 个消费者,那么 RabbitMQ 会将第 m 条消息分发给第 m%n(取余地方式)个消费者,RabbitMQ 不管消费者是否消费并已经确认(Basic.Ack)了消息。试想一下,如果某些消费者任务繁重,来不及消费那么多的消息,而某些其他消费者由于某些原因(比如业务逻辑简单、机器性能卓越等)很快地处理完了所分配到的消息,进而进程空闲,这样就会造成整体应用吞吐量的下降
那么该如何处理这种情况呢?这里就要用到 channel.basicQos(int prefetchCount) 这个方法,如前面章节所述,channel.basicQos 方法允许限制信道上的消费者所能保持的最大未确认消息的数量
举例说明,在订阅消费队列之前,消费端程序调用了 channel.basicQos(5),之后订阅了某个队列进行消费。RabbitMQ 会保存一个消费者的列表,每发送一条消息都会为对应的消费者技术,如果达到了所设定的上限,那么 RabbitMQ 就不会向这个消费者再发送任何消息。知道消费者确认了某条消息之后,RabbitMQ 将相应的计数减 1,之后消费者可以继续接收消息,直到在此到达计数上限。这种机制可以类比于 TCP/IP 中的 “滑动窗口”
注意要点:
Basic.Qos 的使用对于拉模式的消费方式无效
channel.basicQos 有三种类型的重载方法:
void basicQos(int prefetchCount) throws IOException; void basicQos(int prefetchCount, boolean global) throws IOException; void basicQos(int prefetchSize, int prefetchCount, boolean global) throws IOException;
前面介绍的都只用到了 prefetchCount 这个参数,当 prefetchCount 设置为 0 则表示没有上限。还有 prefetchSize 这个参数表示消费者所能接收未确认消息的总体大小的上限,单位为 B,设置为 0 则表示没有上限
对于一个信道来说,它可以同时消费多个队列,当设置了 prefetchCount 大于 0 时,这个信道需要和各个队列协调以确保发送的消息都没有超过所限定的 prefetchCount 的值,这样会使 RabbitMQ 的性能降低,尤其是这些队列分散在集群中的多个 Broker 节点之中。RabbitMQ 为了提升相关的性能,在 AMQP 0-9-1 协议之上重新定义了 global 这个参数,对比如表 4-1 所示
前面章节中的 channel.basicQos 方法的示例都是针对单个消费者的,而对于同一个信道上的多个消费者而言,如果设置了 prefetchCount 的值,那么都会生效。代码清单 4-20 示例种有两个消费者,各自的能接收到的未确认消息的上限都为 10
Channel channel = ...; Consumer consumer1 = ...; Consumer consumer2 = ...; channel.basicQos(10); //Per consumer limit channel.basicConsume("my-queue1", false, consumer1); channel.basicConsume("my-queue2", false, consumer2);
如果在订阅消息之前,既设置了 global 为 true 的限制,又设置了 global 为 false 的限制,那么哪个会生效呢?RabbitMQ 会确保两者都生效。举例说明,当前有两个队列 queue1 和 queue2:queue1 有 10 条消息,分别为 1 到 10;queue2 也有 10 条消息,分别为 11 到 20。有两个消费者分别消费这两个队列,代码如下所示:
Channel channel = ...; Consumer consumer1 = ...; Consumer consumer2 = ...; channel.basicQos(3, false); //Per consumer limit channel.basicQos(5, true)l //Per channel limit channel.basicConsume("queue1", false, consumer1); channel.basicConsume("queue2", false, consumer2);
那么这里每个消费者最多只能收到 3 个未确认的消息,两个消费者能收到的未确认的消息个数之和的上限为 5.在未确认消息的情况下,如果 consumer1 接收到了消息1、2 和 3,那么 consumer2 至多只能收到 11 和 12。如果像这样同时使用两种 global 的模式,则会增加 RabbitMQ 的负载,因为 RabbitMQ 需要更多的资源来协调完成这些限制。如无特殊需要,最好只使用 global 为 false 的设置,这也是默认的设置
2.消息顺序性消息的顺序性是指消费者消费到的消息和发送者发布的消息的顺序是一致的。举个例子,不考虑消息重复的情况,如果生产者发布的消息分别为 msg1、msg2、msg3,那么消费者必然也是按照 msg1、msg2、msg3 的顺序进行消费的
目前很多资料显示 RabbitMQ 的消息能够保障顺序性,这是不正确的,或者说这个观点有很大的局限性。在不使用任何 RabbitMQ 的高级特性,也没有消息丢失、网络故障之类异常的情况发生,并且只有一个消费者的情况下,最好也只有一个生产者的情况下可以保证消息的顺序性。如果有多个生产者同时发送消息,无法确定消息到达 Broker 的前后顺序,也就无法验证消息的顺序性
那么哪些情况下 RabbitMQ 的消息顺序性会被打破呢?下面介绍几种常见的情形
如果生产者使用了事务机制,在发送消息之后遇到异常进行了事务回滚,俺么需要重新补偿发送这条信息,如果补偿发送是在另一个线程实现的,那么消息在生产这这个源头就出现了错序。同样,如果启用 publisher confirm 时,在发生超时、中断,又或者是收到 RabbitMQ 的 Basic.Nack 命令时,那么同样需要补偿发送,结果与事务机制一样会错序。或者这种说法有些牵强,我们额可以固执地认为消息的顺序性保障是从存入队列之后开始的,而不是在发送的时候开始的
考虑另一种情形,如果生产者发生的消息设置了不同的超时时间,并且也设置了死信队列,整体上来说相当于一个延迟队列,那么消费者在消费这个延迟队列的时候,消息的顺序必然不会和生产者发送消息的顺序一致
再考虑一种情形,如果消息设置了优先级,那么消费者消费到的消息也必然不是顺序性的
如果一个队列按照前后顺序分有 msg1、msg2、msg3、msg4 这 4 个消息,同时有 ConsumerA 和 ConsumerB 这两个消费者同时订阅了这个队列。队列中的消息轮询分发到各个消费者之中,ConsumerA 中的消息为 msg1 和 msg3,ConsumerB 中的消息为 msg2、msg4.ConsumerA 收到消息 msg1 之后并不想处理而调用了 Basic.Nack/.Reject 将消息拒绝,与此同时将 requeue 设置为 true,这样这条消息就可以重新存入队列中。消息 msg1 之后被发送到了 ConsumerB 中,此时 ConsumerB 已经消费了 msg2、msg4,之后再消费 msg1,这样消息顺序性也就错乱了。或者消息 msg1 又重新发往 ConsumerA 中,此时 ConsumerA 已经消费了 msg3,那么再消费 msg1,消息顺序性也无法得到保障。同样可以用在 Basic.Recover 这个 AMQP 命令中
包括但不仅限于以上几种情形会使 RabbitMQ 消息错序。如果要保证消息的顺序性,需要业务方使用 RabbitMQ 之后做进一步的处理,比如在消息体内添加全局有序标识(类似 Sequeue ID)来实现
3.启用 QueueingConsumer在前面的章节中所介绍的订阅消费的方式都是通过继承 DefaultConsumer 类来实现的。QueueingConsumer 在 RabbitMQ 客户端 3.x 版本中用得如火如荼,但是在 4.x 版本开始就被标记为 @Deprecated,想必这个类有些无法弥补的缺陷
不妨看一下 QueueingConsumer 的用法,示例代码如下所示:
QueueingConsumer consumer = new QueueingConsumer(channel); //channel.basicQos(64); //使用 QueueingConsumer 的时候一定要添加! channel.basicConsume(QUEUE_NAME, false, "consumer_sisyphus", consumer); while(true){ QueueingConsumer.Delivery delivery = consumer.nextDelivery(); String message = new String(delivery.getBody()); System.out.println(" [x] Recived '" + message + "'"); channel.basicAck(delivery.getEnvelope().getDeliveryTag(), fasle); }
乍一看也没什么问题,而且实际生产环境中如果不是太 “傲娇” 地使用也不会造成什么大问题。QueueingConsumer 本身有几个大缺陷,需要读者在使用时特别注意。首当其冲的就是内存溢出的问题,如果由于某些原因,队列之中堆积了比较多的消息,就可能导致消费者客户端内存溢出假死,于是发生恶性循环,队列消息不断堆积而得不到消化
采用上面的代码进行演示,首先向一个队列发送 200 多 MB 的消息,然后进行消费。在客户端调用 channel.basicConsume 方法订阅队列的时候,RabbitMQ 会持续地将消息发往 QueueingConsumer 中,QueueingConsumer 内部使用 linkedBlockingQueue 来缓存这些消息。通过 JVisualVM 可以看到堆内存的变化,如图 4-14 所示
由图 4-14 可以看到堆内存一直在增加,这里只测试了发送 200MB 左右的消息,如果发送更多的消息,那么这个堆内存会变得更大,直到出现 java.lang.OutofMemoryError 的报错
这个内存溢出的问题可以使用 Basic.Qos 来得到有效的解决,Basic.Qos 可以限制某个消费者所保持未确认消息的数量,也就是间接地限制了 QueueingConsumer 中的 linkedBlockingQueue 的大小。注意一定要在调用 Basic.consume 之前调用 Basic.Qos 才能生效
QueueingConsumer 还包含(但不仅限于)一下一些缺陷:
- QueueingConsumer 会拖累同一个 Connection 下的所有信道,使其性能降低
- 同步递归调用 QueueingConsumer 会产生死锁
- RabbitMQ 的自动连接恢复机制(automatic connection recovery)不支持 QueueingConsumer 的这种形式
- QueueingConsumer 不是事件驱动的
为了避免不必要的麻烦,建议在消费的时候尽量使用继承 DefaultConsumer 的方式
四、消息传输保障消息可靠传输一般是业务系统接入消息中间件时首要考虑的问题,一般消息中间件的消息传输保障分为三个层级:
- At most once:最多一次。消息可能会丢失,但绝不会重复传输
- At least once:最少一次。消息绝不会丢失,但可能会重复传输
- Exactly once:恰好一次。每条消息肯定会被传输一次且仅传输一次
RabbitMQ 支持其中的 “最多一次” 和 “最少一次”。其中 “最少一次” 投递实现需要考虑一下几个方面的内容:
- 消息生产者需要开启事务机制或者 publisher confirm 机制,以确保消息可以可靠地传输到 RabbitMQ 中
- 消息生产者需要配合使用 mandatory 参数或者备份交换器来确保消息能够从交换器路由到队列中,进而能够保存下来而不会被丢弃
- 消息和队列都需要进行持久化处理,以确保 RabbitMQ 服务器在遇到异常情况时不会造成消息丢失
- 消费者在消费消息的同时需要将 autoAck 设置为 false,然后通过手动确认的方式去确认已经正确消费的消息,以避免在消费端引起不必要的消息丢失
“最多一次” 的方式就无须考虑以上那些方面,生产者随意发送,消费者随意消费,不过这样很难确保消息不会丢失
“恰好一次” 是 RabbitMQ 目前无法保障的。考虑这样一种情况,消费者在消费完一条消息之后向 RabbitMQ 发送确认 Basic.Ack 命令,此时由于网络断开或者其他原因造成 RabbitMQ 并没有收到这个确认命令,那么 RabbitMQ 不会将此条消息标记删除。在重新建立连接之后,消费者还是会消费到这一条消息,这就造成了重复消费。再考虑一种情况,生产者再使用 publisher confirm 机制的时候,发送完一条消息等待 RabbitMQ 返回确认通知,此时网路断开,生产者捕获到异常情况,为了确保消息可靠性选择重新发送,这样 RabbitMQ 中就有两条同样的消息,在消费的时候,消费者就会重复消费
那么 RabbitMQ 有没有去重的机制来保证 “恰好一次” 呢?答案是并没有,不仅是 RabbitMQ,目前大多数主流的消息中间件都没有消息去重机制,也不保障 “恰好一次”。去重处理一般是在业务客户端实现,比如引入 GUID(Globally Unique Identifier)的概念。针对 GUID,如果从和客户端的角度去重,那么需要引入集中式缓存,必然会增加依赖复杂度,另外缓存的大小也难以界定。建议在实际生产环境中,业务方根据自身的业务特性进行去重,比如业务消息本身具备幂等性,或者借助 Redis 等其他产品进行去重处理
提升数据可靠性有以下一些途径:
- 设置 mandatory 参数或者备份交换器
- 设置 publisher confirm 机制或者事务机制
- 设置交换器、队列和消息都为持久化
- 设置消费端对应的 autoAck 参数为 false 并在消费完消息之后再进行消息确认
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)