kafka重复消费问题

kafka重复消费问题,第1张

kafka重复消费问题 造成消息重复的原因:

根本因素:数据已经消费了,但是offset没有提交。
1、 程序被kill或者系统宕机、重启,导致offset没有提交。
2、 消费数据后,offset还没有提交时,partition就断开连接。max.poll.interval.ms参数定义了两次poll的最大间隔,它的默认值是 5 分钟,表示你的 Consumer 程序如果在 5 分钟之内无法消费完 poll 方法返回的消息,那么 Consumer 会主动发起“离开组”的请求,Coordinator 也会开启新一轮 Rebalance。若消费者消费的消息比较耗时,那么这种情况可能就会出现。

解决消息重复消费方法: 方法一:

对每条消息定义唯一主键,利用redis或者mysql保存最近消费的10000条数据的消息Id,在后面的消费时根据Id判断是否重复,在消费。

方法二:

如果要入库的话,可以利用数据库中的唯一键(唯一索引)自动去重。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5680785.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存