Kafka如何保证消息不丢失、Kafka消费数据模式、Kafka的数据存储形式

Kafka如何保证消息不丢失、Kafka消费数据模式、Kafka的数据存储形式,第1张

Kafka如何保证消息不丢失、Kafka消费数据模式、Kafka的数据存储形式 Kafka如何保证消息不丢失、消费数据模式 消费模式
  • kafka采用拉取模型,由消费者自己记录消费状态,每个消费者互相独立地顺序拉取每个分区的消息
  • 消费者可以按照任意的顺序消费消息。比如,消费者可以重置到旧的偏移量,重新处理之前已经消费过的消息;或者直接跳到最近的位置,从当前的时刻开始消费
Kafka消费数据流程

  • 每个consumer都可以根据分配策略(默认RangeAssignor),获得要消费的分区
  • 获取到consumer对应的offset(默认从ZK中获取上一次消费的offset)
  • 找到该分区的leader,拉取数据
  • 消费者提交offset
Kafka的数据存储形式

  • 一个topic由多个分区组成
  • 一个分区(partition)由多个segment(段)组成
  • 一个segment(段)由多个文件组成(log、index、timeindex)

消息不丢失机制 1、broker数据不丢失

生产者通过分区的leader写入数据后,所有在ISR中follower都会从leader中复制数据,这样,可以确保即使leader崩溃了,其他的follower的数据仍然是可用的

2、生产者数据不丢失
  • 生产者连接leader写入数据时,可以通过ACK机制来确保数据已经成功写入。ACK机制有三个可选配置
  1. 配置ACK响应要求为 -1 时 —— 表示所有的节点都收到数据(leader和follower都接收到数据)

  2. 配置ACK响应要求为 1 时 —— 表示leader收到数据

  3. 配置ACK影响要求为 0 时 —— 生产者只负责发送数据,不关心数据是否丢失(这种情况可能会产生数据丢失,但性能是最好的)

  • 生产者可以采用同步和异步两种方式发送数据

同步:发送一批数据给kafka后,等待kafka返回结果

异步:发送一批数据给kafka,只是提供一个回调函数。

说明:如果broker迟迟不给ack,而buffer又满了,开发者可以设置是否直接清空buffer中的数据。

3、消费者数据不丢失

在消费者消费数据的时候,只要每个消费者记录好offset值即可,就能保证数据不丢失。


数据积压

Kafka消费者消费数据的速度是非常快的,但如果由于处理Kafka消息时,由于有一些外部IO、或者是产生网络拥堵,就会造成Kafka中的数据积压(或称为数据堆积)。如果数据一直积压,会导致数据出来的实时性受到较大影响。

解决数据积压问题

当Kafka出现数据积压问题时,首先要找到数据积压的原因。以下是在企业中出现数据积压的几类场景。

1.数据写入MySQL失败 2.因为网络延迟消费失败

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5688655.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存