您的位置 首页 golang

Kafka如何保证消息不丢失、消费数据模式

消费模式

  • kafka采用拉取模型,由消费者自己记录消费状态,每个消费者互相独立地顺序拉取每个分区的消息
  • 消费者可以按照任意的顺序消费消息。比如,消费者可以重置到旧的偏移量,重新处理之前已经消费过的消息;或者直接跳到最近的位置,从当前的时刻开始消费

Kafka消费数据流程

Kafka消费数据流程

  • 每个consumer都可以根据分配策略(默认RangeAssignor),获得要消费的分区
  • 获取到consumer对应的offset(默认从ZK中获取上一次消费的offset)
  • 找到该分区的leader,拉取数据
  • 消费者提交offset

Kafka的数据存储形式

Kafka的数据存储形式

  • 一个topic由多个分区组成
  • 一个分区(partition)由多个segment(段)组成
  • 一个segment(段)由多个文件组成(log、index、timeindex)

消息不丢失机制

1、broker数据不丢失

生产者通过分区的leader写入数据后,所有在ISR中follower都会从leader中复制数据,这样,可以确保即使leader崩溃了,其他的follower的数据仍然是可用的

2、生产者数据不丢失

  • 生产者连接leader写入数据时,可以通过ACK机制来确保数据已经成功写入。ACK机制有三个可选配置
  • 生产者可以采用同步和异步两种方式发送数据

同步:发送一批数据给kafka后,等待kafka返回结果

异步:发送一批数据给kafka,只是提供一个回调函数。

说明:如果broker迟迟不给ack,而buffer又满了,开发者可以设置是否直接清空buffer中的数据。

3、消费者数据不丢失

在消费者消费数据的时候,只要每个消费者记录好offset值即可,就能保证数据不丢失。


数据积压

Kafka消费者消费数据的速度是非常快的,但如果由于处理Kafka消息时,由于有一些外部IO、或者是产生网络拥堵,就会造成Kafka中的数据积压(或称为数据堆积)。如果数据一直积压,会导致数据出来的实时性受到较大影响。

解决数据积压问题

当Kafka出现数据积压问题时,首先要找到数据积压的原因。以下是在企业中出现数据积压的几类场景。

1.数据写入MySQL失败

2.因为网络延迟消费失败

文章来源:智云一二三科技

文章标题:Kafka如何保证消息不丢失、消费数据模式

文章地址:https://www.zhihuclub.com/97876.shtml

关于作者: 智云科技

热门文章

网站地图