事务
事务场景
- 如Producer发的多条消息组成一个事务这些消息需要对Consumer同时可见或者同时不可见
- Producer可能会给多个Topic,多个Partition发消息,这些消息也需要能放在一个事务里面,这就形成了一个典型的分布式事务
- Kafka的应用场景经常是应用先消费一个Topic,然后做处理再发到另一个Topic,这个consume-transform-produce过程需要放到一个事务里面,比如在消息处理或者发送的过程中如果失败了,消费偏移量也不能提交
- Producer或者Producer所在的应用可能会挂掉,新的Producer启动以后需要知道怎么处理之前未完成的事务
- 在一个原子操作中,根据包含的操作类型,可以分为三种情况,前两种情况是事务引入的场景,最后一种没用(1、只有Producer生产消息;2、消费消息和生产消息并存,这个是事务场景中最常用的情况,就是我们常说的consume-transform-produce 模式;3、只有Consumer消费消息,这种操作其实没有什么意义,跟使用手动提交效果一样,而且也不是事务属性引入的目的,所以一般不会使用这种情况)
几个关键概念和推导
- 因为Producer发送消息可能是分布式事务,所以引入了常用的2PC,所以有事务协调者(Transaction Coordinator)。Transaction Coordinator和之前为了解决脑裂和惊群问题引入的Group Coordinator在选举上类似
- 事务管理中事务日志是必不可少的,Kafka使用一个内部Topic来保存事务日志,这个设计和之前使用内部Topic保存偏移量的设计保持一致。事务日志是Transaction Coordinator管理的状态的持久化,因为不需要回溯事务的历史状态,所以事务日志只用保存最近的事务状(__transaction_state)
- 因为事务存在commit和abort两种操作,而客户端又有read committed和read uncommitted两种隔离级别,所以消息队列必须能标识事务状态,这个被称作Control Message
- Producer挂掉重启或者漂移到其它机器需要能关联的之前的未完成事务所以需要有一个唯一标识符来进行关联,这个就是TransactionalId,一个Producer挂了,另一个有相同TransactionalId的Producer能够接着处理这个事务未完成的状态。Kafka目前没有引入全局序列,所以也没有TransactionId,这个TransactionalId是用户提前配置的
- TransactionalId能关联Producer,也需要避免两个使用相同TransactionalId的Producer同时存在,所以引入了Producer epoch来保证对应一个TransactionalId只有一个活跃的Producer
事务语义
多分区原子写入
事务能够保证Kafka Topic下每个分区的原子写入。事务中所有的消息都将被成功写入或者丢弃。
首先,我们来考虑一下原子读取-处理-写入周期是什么意思。简而言之,这意味着如果某个应用程序在某个Topic tp0的偏移量X处读取到了消息A,并且在对消息A进行了一些处理(如B = F(A))之后将消息B写入Topic tp1,则只有当消息A和B被认为被成功地消费并一起发布,或者完全不发布时,整个读取过程写入操作是原子的。
现在,只有当消息A的偏移量X被标记为已消费,消息A才从Topic tp0消费,消费到的数据偏移量(record offset)将被标记为提交偏移量(committing offset)。在Kafka中,我们通过写入一个名为offsets Topic的内部Kafka Topic来记录offset commit。消息仅在其offset被提交给offsets Topic时才被认为成功消费。
由于offset commit只是对Kafka Topic的另一次写入,并且由于消息仅在提交偏移量时被视为成功消费,所以跨多个主题和分区的原子写入也启用原子读取-处理-写入循环:提交偏移量X到offset Topic和消息B到tp1的写入将是单个事务的一部分,所以整个步骤都是原子的。
粉碎“僵尸实例”
我们通过为每个事务Producer分配一个称为transactional.id的唯一标识符来解决僵尸实例的问题。在进程重新启动时能够识别相同的Producer实例。
API要求事务性Producer的第一个操作应该是在Kafka集群中显示注册transactional.id。 当注册的时候,Kafka Broker用给定的transactional.id检查打开的事务并且完成处理。 Kafka也增加了一个与transactional.id相关的epoch。Epoch存储每个transactional.id内部元数据。
一旦epoch被触发,任何具有相同的transactional.id和旧的epoch的生产者被视为僵尸,Kafka拒绝来自这些生产者的后续事务性写入。
简而言之:Kafka可以保证Consumer最终只能消费非事务性消息或已提交事务性消息。它将保留来自未完成事务的消息,并过滤掉已中止事务的消息。
事务消息定义
生产者可以显式地发起事务会话,在这些会话中发送(事务)消息,并提交或中止事务。有如下要求:
- 原子性:消费者的应用程序不应暴露于未提交事务的消息中
- 持久性:Broker不能丢失任何已提交的事务
- 排序:事务消费者应在每个分区中以原始顺序查看事务消息
- 交织:每个分区都应该能够接收来自事务性生产者和非事务生产者的消息
- 事务中不应有重复的消息
如果允许事务性和非事务性消息的交织,则非事务性和事务性消息的相对顺序将基于附加(对于非事务性消息)和最终提交(对于事务性消息)的相对顺序。
在上图中,分区p0和p1接收事务X1和X2的消息,以及非事务性消息。时间线是消息到达Broker的时间。由于首先提交了X2,所以每个分区都将在X1之前公开来自X2的消息。由于非事务性消息在X1和X2的提交之前到达,因此这些消息将在来自任一事务的消息之前公开。
事务配置
创建消费者代码,需要:
- 将配置中的自动提交属性(
auto.commit
)进行关闭 - 而且在代码里面也不能使用手动提交
commitSync()
或者commitAsync()
- 设置
isolation
.level:READ_COMMITTED
或READ_UNCOMMITTED
创建生产者代码需要:
- 配置
transactional.id
属性 - 配置
enable.idempotence
属性
事务概览
生产者将表示事务开始/结束/中止状态的事务控制消息发送给使用多阶段协议管理事务的高可用事务协调器。生产者将事务控制记录(开始/结束/中止)发送到事务协调器,并将事务的消息直接发送到目标数据分区。消费者需要了解事务并缓冲每个待处理的事务,直到它们到达其相应的结束(提交/中止)记录为止。
事务组
事务组用于映射到特定的事务协调器(基于日志分区数字的哈希)。该组中的生产者需要配置为该组事务生产者。由于来自这些生产者的所有事务都通过此协调器进行,因此我们可以在这些事务生产者之间实现严格的有序。
生产者ID和事务组状态
事务生产者需要两个新参数:生产者ID和生产组。
需要将生产者的输入状态与上一个已提交的事务相关联。这使事务生产者能够重试事务(通过为该事务重新创建输入状态,在我们的用例中通常是偏移量的向量)。
可以使用消费者偏移量管理机制来管理这些状态。消费者偏移量管理器将每个键(consumergroup-topic-partition )与该分区的最后一个检查点偏移量和元数据相关联。在事务生产者中,我们保存消费者的偏移量,该偏移量与事务的提交点关联。此偏移提交记录(在__consumer_offsets 主题中)应作为事务的一部分写入。即,存储消费组偏移量的
__consumer_offsets 主题分区将需要参与事务。因此,假定生产者在事务中间失败(事务协调器随后到期)。当生产者恢复时,它可以发出偏移量获取请求,以恢复与最后提交的事务相关联的输入偏移量,并从该点恢复事务处理。
为了支持此功能,我们需要对偏移量管理器和压缩的__consumer_offsets
主题进行一些增强。
首先,压缩的主题现在还将包含事务控制记录。我们将需要为这些控制记录提出剔除策略。
其次,偏移量管理器需要具有事务意识,特别是,如果组与待处理的事务相关联,则偏移量提取请求应返回错误。
事务协调器
事务协调器是__transaction_state
主题特定分区的Leader分区所在的Broker。它负责初始化、提交以及回滚事务。事务协调器在内存管理如下的状态:
- 对应正在处理的事务的第一个消息的HW。事务协调器周期性地将HW写到ZK
- 事务控制日志中存储对应于日志HW的所有正在处理的事务
- 事务消息主题分区的列表(事务的超时时间、与事务关联的Producer ID)
要确保无论是什么样的保留策略(日志分区的删除还是压缩),都不能删除包含事务HW的日志分段。
事务流程
初始阶段
- Producer计算哪个Broker作为事务协调器
- Producer向事务协调器发送
BeginTransaction(producerId, generation, partitions… )
请求,当然也可以发送另一个包含事务过期时间的。如果生产者需要将消费者状态作为事务的一部分提交事务,则需要在BeginTransaction
中包含对应的__consumer_offsets
主题分区信息 - Broker生成事务ID
- Coordinator向事务协调主题追加
BEGIN(TxId, producerId, generation, partitions…)
消息,然后发送响应给生产者 - Producer读取响应(包含了事务ID:TxId)
- Coordinator (and followers)在内存更新当前事务的待确认事务状态和数据分区信息
发送阶段
Producer发送事务消息给主题Leader分区所在的Broker。每个消息需要包含TxId和TxCtl字段。TxCtl仅用于标记事务的最终状态(提交还是中止)。生产者请求也封装了生产者ID,但是不追加到日志中。
结束阶段
- Producer发送
OffsetCommitRequest
请求提交与事务结束状态关联的输入状态(如下一个事务输入从哪儿开始) - Producer发送
CommitTransaction(TxId, producerId, generation)
请求给事务协调器并等待响应。(如果响应中没有错误信息,表示将提交事务) - Coordinator向事务控制主题追加
PREPARE_COMMIT(TxId)
请求并向生产者发送响应 - Coordinator向事务涉及到的每个Leader分区(事务的业务数据的目标主题)的Broker发送一个
CommitTransaction(TxId, partitions…)
请求 - 事务业务数据的目标主题相关Leader分区Broker:如果是非
__consumer_offsets
主题的Leader分区:一收到CommitTransaction(TxId, partition1, partition2, …)
请求就会向对应的分区Broker发送空(null)消息(没有key/value)并给该消息设置TxId和TxCtl(设置为COMMITTED)字段。Leader分区的Broker给协调器发送响应;如果是__consumer_offsets
主题的Leader分区:追加消息,该消息的key是G-LAST-COMMIT
,value就是TxId的值。同时也应该给该消息设置TxId和TxCtl字段。Broker向协调器发送响应 - Coordinator向事务控制主题发送
COMMITTED(TxId)
请求。__transaction_state
- Coordinator (and followers)尝试更新HW
事务的中止
当事务生产者发送业务消息的时候如果发生异常,可以中止该事务。如果事务提交超时,事务协调器也会中止当前事务。
- Producer向事务协调器发送
AbortTransaction(TxId)
请求并等待响应(一个没有异常的响应表示事务将会中止) - Coordinator向事务控制主题追加
PREPARE_ABORT(TxId)
消息,然后向生产者发送响应 - Coordinator向事务业务数据的目标主题的每个涉及到的Leader分区Broker发送
AbortTransaction(TxId, partitions…)
请求(收到Leader分区Broker响应后,事务协调器中止动作跟上面的提交类似)
基本事务流程的失败
- 生产者发送
BeginTransaction(TxId)
的时候超时或响应中包含异常,生产者使用相同的TxId重试 - 生产者发送数据时的Broker错误:生产者应中止(然后重做)事务(使用新的TxId)。如果生产者没有中止事务,则协调器将在事务超时后中止事务。仅在可能已将请求数据附加并复制到Follower的错误的情况下才需要重做事务。例如,生产者请求超时将需要重做,而
NotLeaderForPartitionException
不需要重做 - 生产者发送
CommitTransaction(TxId)
请求超时或响应中包含异常,生产者使用相同的TxId重试事务。此时需要幂等性
主题的压缩
压缩主题在压缩过程中会丢弃具有相同键的早期记录。如果这些记录是事务的一部分,这合法吗?这可能有点怪异,但可能不会太有害,因为在主题中使用压缩策略的理由是保留关键数据的最新更新。
如果该应用程序正在(例如)更新某些表,并且事务中的消息对应于不同的键,则这种情况可能导致数据库视图不一致。
事务相关配置
Broker configs
配置项 | 说明 |
transactional.id.timeout.ms | 在Kafka中,事务协调器在生产者TransactionalId 提前过期之前等待的最长时间,并且没有从该生产者TransactionalId 接收到任何事务状态更新。默认是604800000(7天)。这允许每周一次的生产者作业维护它们的id |
max.transaction.timeout.ms | 事务允许的最大超时。如果客户端请求的事务时间超过此时间,Broke将在InitPidRequest 中返回InvalidTransactionTimeout 错误。这可以防止客户机超时过大,从而导致用户无法从事务中包含的主题读取内容。默认值为900000(15分钟)。这是消息事务需要发送的时间的保守上限 |
transaction.state.log.replication.factor | 事务状态Topic的副本数量。默认值:3 |
transaction.state.log.num.partitions | 事务状态主题的分区数。默认值:50 |
transaction.state.log.min.isr | 事务状态主题的每个分区ISR最小数量。默认值:2 |
transaction.state.log.segment.bytes | 事务状态主题的segment大小。默认值:104857600字节 |
Producer configs
配置项 | 说明 |
enable.idempotence | 开启幂等 |
transaction.timeout.ms | 事务超时时间 事务协调器在主动中止正在进行的事务之前等待生产者更新事务状态的最长时间。这个配置值将与 InitPidRequest 一起发送到事务协调器。如果该值大于max.transaction.timeout (在Broke中设置)请求将失败,并出现InvalidTransactionTimeout 错误。默认是60000。这使得交易不会阻塞下游消费超过一分钟,这在实时应用程序中通常是允许的 |
transactional.id | 用于事务性交付的TransactionalId 。这支持跨多个生产者会话的可靠性语义,因为它允许客户端确保使用相同TransactionalId 的事务在启动任何新事务之前已经完成。如果没有提供TransactionalId ,则生产者仅限于幂等交付 |
Consumer configs
配置项 | 说明 |
isolation.level | read_uncommitted:以偏移顺序使用已提交和未提交的消息 read_committed:仅以偏移量顺序使用非事务性消息或已提交事务性消息。为了维护偏移排序,这个设置意味着我们必须在使用者中缓冲消息,直到看到给定事务中的所有消息 |
幂等性
Kafka在引入幂等性之前,Producer向Broker发送消息,然后Broker将消息追加到消息流中后给Producer返回Ack信号值。实现流程如下:
生产中,会出现各种不确定的因素,比如在Producer在发送给Broker的时候出现网络异常。比如以下这种异常情况的出现:
上图这种情况,当Producer第一次发送消息给Broker时,Broker将消息(x2,y2)追加到了消息流中,但是在返回Ack信号给Producer时失败了(比如网络异常) 。此时,Producer端触发重试机制,将消息(x2,y2)重新发送给Broker,Broker接收到消息后,再次将该消息追加到消息流中,然后成功返回Ack信号给Producer。这样下来,消息流中就被重复追加了两条相同的(x2,y2)的消息。
幂等性保证在消息重发的时候,消费者不会重复处理。即使在消费者收到重复消息的时候,重复处理,也要保证最终结果的一致性。
所谓幂等性,数学概念就是: f(f(x)) = f(x) 。f函数表示对消息的处理。比如,银行转账,如果失败,需要重试。不管重试多少次,都要保证最终结果一定是一致的。
幂等性实现是通过添加唯一ID,类似于数据库的主键,用于唯一标记一个消息。Kafka为了实现幂等性,它在底层设计架构中引入了ProducerID
和SequenceNumber
。
ProducerID
:在每个新的Producer初始化时,会被分配一个唯一的ProducerID
,这个ProducerID
对客户端使用者是不可见的SequenceNumber
:对于每个ProducerID
,Producer发送数据的每个Topic和Partition都对应一个从0开始单调递增的SequenceNumber
值
当Producer发送消息(x2,y2)给Broker时,Broker接收到消息并将其追加到消息流中。此时,Broker返回Ack信号给Producer时,发生异常导致Producer接收Ack信号失败。对于Producer来说,会触发重试机制,将消息(x2,y2)再次发送,但是,由于引入了幂等性,在每条消息中附带了PID
(ProducerID
)和SequenceNumber
。相同的PID
和SequenceNumber
发送给Broker,而之前Broker缓存过之前发送的相同的消息,那么在消息流中的消息就只有一条(x2,y2),不会出现重复发送的情况。
事务操作
在Kafka事务中,一个原子性操作,根据操作类型可以分为3种情况。情况如下:
- 只有Producer生产消息,这种场景需要事务的介入
- 消费消息和生产消息并存,比如Consumer&Producer模式,这种场景是一般Kafka项目中比较常见的模式,需要事务介入
- 只有Consumer消费消息,这种操作在实际项目中意义不大,和手动Commit Offsets的结果一样,而且这种场景不是事务的引入目的
/ 初始化事务,需要注意确保transation.id属性被分配
void initTransactions();
// 开启事务
void beginTransaction() throws ProducerFencedException;
// 为Consumer提供的在事务内Commit Offsets的操作
void sendOffsetsToTransaction(Map<TopicPartition, OffsetAndMetadata>
offsets,
String consumerGroupId) throws
ProducerFencedException;
// 提交事务
void commitTransaction() throws ProducerFencedException;
// 放弃事务,类似于回滚事务的操作
void abortTransaction() throws ProducerFencedException;
案例1:单个Producer,使用事务保证消息的仅一次发送:
package com.rubin.kafka.tx;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.serialization.StringSerializer;
import java.util.HashMap;
import java.util.Map;
public class MyTransactionalProducer {
public static void main(String[] args) {
Map<String, Object> configs = new HashMap<>();
configs.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "kafka-host:9092");
configs.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
configs.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
// 提供生产者client.id
configs.put(ProducerConfig.CLIENT_ID_CONFIG, "tx_producer");
// 设置事务ID
configs.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG, "my_tx_id_1");
// 需要ISR全体确认消息
configs.put(ProducerConfig.ACKS_CONFIG, "all");
KafkaProducer<String, String> producer = new KafkaProducer<String, String>(configs);
// 初始化事务
producer.initTransactions();
try {
// 开启事务
producer.beginTransaction();
// 发送事务消息
producer.send(new ProducerRecord<>("tp_tx_01", "txkey1", "tx_msg_4"));
producer.send(new ProducerRecord<>("tp_tx_01", "txkey2", "tx_msg_5"));
producer.send(new ProducerRecord<>("tp_tx_01", "txkey3", "tx_msg_6"));
int i = 1 / 0;
// 提交事务
producer.commitTransaction();
} catch (Exception e) {
e.printStackTrace();
// 事务回滚
producer.abortTransaction();
} finally {
// 关闭生产者
producer.close();
}
}
}
案例2:在消费-转换-生产模式,使用事务保证仅一次发送:
package com.rubin.kafka.tx;
import org.apache.kafka.clients.consumer.*;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.TopicPartition;
import org.apache.kafka.common.serialization.StringDeserializer;
import org.apache.kafka.common.serialization.StringSerializer;
import java.util.Collections;
import java.util.HashMap;
import java.util.Map;
public class MyTransactionalConsumeAndProduce {
public static KafkaProducer<String, String> getProducer() {
Map<String, Object> configs = new HashMap<>();
configs.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "kafka-host:9092");
configs.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
configs.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class);
// 设置client.id
configs.put(ProducerConfig.CLIENT_ID_CONFIG, "tx_producer_01");
// 设置事务id
configs.put(ProducerConfig.TRANSACTIONAL_ID_CONFIG, "tx_id_02");
// 需要所有的ISR副本确认
configs.put(ProducerConfig.ACKS_CONFIG, "all");
// 启用幂等性
configs.put(ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG, true);
KafkaProducer<String, String> producer = new KafkaProducer<String, String>(configs);
return producer;
}
public static KafkaConsumer<String, String> getConsumer(String consumerGroupId) {
Map<String, Object> configs = new HashMap<>();
configs.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "kafka-host:9092");
configs.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
configs.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
// 设置消费组ID
configs.put(ConsumerConfig.GROUP_ID_CONFIG, "consumer_grp_02");
// 不启用消费者偏移量的自动确认,也不要手动确认
configs.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
configs.put(ConsumerConfig.CLIENT_ID_CONFIG, "consumer_client_02");
configs.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
// 只读取已提交的消息
// configs.put(ConsumerConfig.ISOLATION_LEVEL_CONFIG, "read_committed");
KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(configs);
return consumer;
}
public static void main(String[] args) {
String consumerGroupId = "consumer_grp_id_101";
KafkaProducer<String, String> producer = getProducer();
KafkaConsumer<String, String> consumer = getConsumer(consumerGroupId);
// 事务的初始化
producer.initTransactions();
//订阅主题
consumer.subscribe(Collections.singleton("tp_tx_01"));
final ConsumerRecords<String, String> records = consumer.poll(1_000);
// 开启事务
producer.beginTransaction();
try {
Map<TopicPartition, OffsetAndMetadata> offsets = new HashMap<>();
for (ConsumerRecord<String, String> record : records) {
System.out.println(record);
producer.send(new ProducerRecord<String, String>("tp_tx_out_01", record.key(), record.value()));
offsets.put(
new TopicPartition(record.topic(), record.partition()),
new OffsetAndMetadata(record.offset() + 1)); // 偏移量表示下一条要消费的消息
}
// 将该消息的偏移量提交作为事务的一部分,随事务提交和回滚(不提交消费偏移量)
producer.sendOffsetsToTransaction(offsets, consumerGroupId);
// int i = 1 / 0;
// 提交事务
producer.commitTransaction();
} catch (Exception e) {
e.printStackTrace();
// 回滚事务
producer.abortTransaction();
} finally {
// 关闭资源
producer.close();
consumer.close();
}
}
}
控制器
Kafka集群包含若干个Broker,broker.id
指定Broker的编号,编号不要重复。
Kafka集群上创建的主题,包含若干个分区。
每个分区包含若干个副本,副本因子包括了Follower副本和Leader副本。
副本又分为ISR(同步副本分区)和OSR(非同步副本分区)。
控制器就是一个Broker。
控制器除了一般Broker的功能,还负责Leader分区的选举。
Broker选举
集群里第一个启动的Broker在ZooKeeper中创建临时节点 /controller 。
其他Broker在该控制器节点创建ZooKeeper watch对象,使用ZooKeeper的监听机制接收该节点的变更。
即:Kafka通过ZooKeeper的分布式锁特性选举集群控制器。
下图中,节点 /myKafka/controller是一个ZooKeeper临时节点,其中 "brokerid":0 ,表示当前控制器是broker.id
为0的Broker。
每个新选出的控制器通过ZooKeeper的条件递增操作获得一个全新的、数值更大的controller_epoch
。其他Broker在知道当前controller_epoch
后,如果收到由控制器发出的包含较旧epoch的消息,就会忽略它们,以防止“脑裂”。
比如当一个Leader副本分区所在的Broker宕机,需要选举新的Leader副本分区,有可能两个具有不同纪元数字的控制器都选举了新的Leader副本分区,如果选举出来的Leader副本分区不一样,听谁的?脑裂了。有了纪元数字,直接使用纪元数字最新的控制器结果。
当控制器发现一个Broker已经离开集群,那些失去Leader副本分区的Follower分区需要一个新Leader(这些分区的首领刚好是在这个Broker上)。
- 控制器需要知道哪个Broker宕机了
- 控制器需要知道宕机的Broker上负责的时候哪些分区的Leader副本分区
下图中,/brokers/ids/0
保存该Broker的信息,此节点为临时节点,如果Broker节点宕机,该节点丢失。
集群控制器负责监听ids
节点,一旦节点子节点发送变化,集群控制器得到通知。
控制器遍历这些Follower副本分区,并确定谁应该成为新Leader分区,然后向所有包含新Leader分区和现有Follower的Broker发送请求。该请求消息包含了谁是新Leader副本分区以及谁是Follower副本分区的信息。随后,新Leader分区开始处理来自生产者和消费者的请求,而跟随者开始从新Leader副本分区消费消息。
当控制器发现一个Broker加入集群时,它会使用broker ID来检查新加入的broker是否包含现有分区的副本。如果有,控制器就把变更通知发送给新加入的Broker和其他Broker,新Broker上的副本分区开始从Leader分区那里消费消息,与Leader分区保持同步。
结论:
- Kafka使用ZooKeeper的分布式锁选举控制器,并在节点加入集群或退出集群时通知控制器
- 控制器负责在节点加入或离开集群时进行分区Leader选举
- 控制器使用epoch来避免“脑裂”。“脑裂”是指两个节点同时认为自己是当前的控制器
可靠性保证
概念
- 创建Topic的时候可以指定
--replication-factor 3
,表示分区的副本数,不要超过Broker的数量 - Leader是负责读写的节点,而其他副本则是Follower。Producer只把消息发送到Leader,Follower定期地到Leader上Pull数据
- ISR是Leader负责维护的与其保持同步的Replica列表,即当前活跃的副本列表。如果一个Follow落后太多,Leader会将它从ISR中移除。落后太多意思是该Follow复制的消息Follow长时间没有向Leader发送fetch请求(参数:
replica.lag.time.max.ms
默认值:10000) - 为了保证可靠性,可以设置
acks=all
。Follower收到消息后,会像Leader发送ACK。一旦Leader收到了ISR中所有Replica的ACK,Leader就commit,那么Leader就向Producer发送ACK
副本的分配
当某个Topic的--replication-factor
为N(N>1)时,每个Partition都有N个副本,称作replica。原则上是将replica均匀的分配到整个集群上。不仅如此,partition的分配也同样需要均匀分配,为了更好的负载均衡。
副本分配的三个目标:
- 均衡地将副本分散于各个Broker上
- 对于某个Broker上分配的分区,它的其他副本在其他Broker上
- 如果所有的Broker都有机架信息,尽量将分区的各个副本分配到不同机架上的Broker
在不考虑机架信息的情况下:
- 第一个副本分区通过轮询的方式挑选一个Broker,进行分配。该轮询从Broker列表的随机位置进行轮询
- 其余副本通过增加偏移进行分配
失效副本
失效副本的判定通过参数replica.lag.time.max.ms
设置,默认大小为10000。
当ISR中的一个Follower副本滞后Leader副本的时间超过参数replica.lag.time.max.ms
指定的值时即判定为副本失效,需要将此Follower副本剔出除ISR。
具体实现原理:当Follower副本将Leader副本的LEO之前的日志全部同步时,则认为该Follower副本已经追赶上Leader副本,此时更新该副本的lastCaughtUpTimeMs
标识。
Kafka的副本管理器(ReplicaManager)启动时会启动一个副本过期检测的定时任务,而这个定时任务会定时检查当前时间与副本的lastCaughtUpTimeMs
差值是否大于参数replica.lag.time.max.ms
指定的值。
Kafka源码注释中说明了一般有两种情况会导致副本失效:
- Follower副本进程卡住,在一段时间内没有向Leader副本发起同步请求,比如频繁的Full GC
- Follower副本进程同步过慢,在一段时间内都无法追赶上Leader副本,比如IO开销过大
如果通过工具增加了副本因子,那么新增加的副本在赶上Leader副本之前也都是处于失效状态的。
如果一个Follower副本由于某些原因(比如宕机)而下线,之后又上线,在追赶上Leader副本之前也是出于失效状态。
失效副本的分区个数是用于衡量Kafka性能指标的重要部分。Kafka本身提供了一个相关的指标,即UnderReplicatedPartitions
,这个可以通过JMX访问:
kafka.server:type=ReplicaManager,name=UnderReplicatedPartitions
取值范围是大于等于0的整数。注意:如果Kafka集群正在做分区迁移(kafka-reassign-partitions.sh)的时候,这个值也会大于0。
副本复制
日志复制算法(log replication algorithm)必须提供的基本保证是,如果它告诉客户端消息已被提交,而当前Leader出现故障,新选出的Leader也必须具有该消息。在出现故障时,Kafka会从挂掉Leader的ISR里面选择一个Follower作为这个分区新的Leader。
每个分区的Leader会维护一个in-sync replica
(同步副本列表,又称 ISR)。当Producer向Broker发送消息,消息先写入到对应Leader分区,然后复制到这个分区的所有副本中。ACKS=ALL
时,只有将消息成功复制到所有同步副本(ISR)后,这条消息才算被提交。
一个副本与Leader失去同步的原因有很多,主要包括:
- 慢副本(Slow replica):follower replica在一段时间内一直无法赶上Leader的写进度。造成这种情况的最常见原因之一是follower replica上的 I/O瓶颈,导致它持久化日志的时间比它从Leader消费消息的时间要长
- 卡住副本(Stuck replica):follower replica在很长一段时间内停止从Leader获取消息。这可能是因为GC停顿,或者副本出现故障
- 刚启动副本(Bootstrapping replica):当用户给某个主题增加副本因子时,新的follower replicas是不同步的,直到它跟上Leader的日志
当副本落后于Leader分区时,这个副本被认为是不同步或滞后的。在Kafka中,副本的滞后于Leader是根据 replica.lag.time.max.ms
来衡量。
Kafka通过replica.lag.time.max.ms
来检测卡住副本(Stuck replica)在所有情况下都能很好地工作。它跟踪Follower 副本没有向Leader发送获取请求的时间,通过这个可以推断Follower是否正常。另一方面,使用消息数量检测不同步慢副本(Slow replica)的模型只有在为单个主题或具有同类流量模式的多个主题设置这些参数时才能很好地工作,但我们发现它不能扩展到生产集群中所有主题。
一致性保证
概念
水位标记
水位或水印(watermark)一词,表示位置信息,即位移(offset)。Kafka源码中使用的名字是高水位,HW(high watermark)。
副本角色
Kafka分区使用多个副本(replica)提供高可用。
LEO和HW
每个分区副本对象都有两个重要的属性:LEO和HW。
- LEO:即日志末端位移(log end offset),记录了该副本日志中下一条消息的位移值。如果LEO=10,那么表示该副本保存了10条消息,位移值范围是[0, 9]。另外,Leader LEO和Follower LEO的更新是有区别的
- HW:即上面提到的水位值。对于同一个副本对象而言,其HW值不会大于LEO值。小于等于HW值的所有消息都被认为是“已备份”的(replicated)。Leader副本和Follower副本的HW更新不同
上图中,HW值是7,表示位移是 0~7 的所有消息都已经处于“已提交状态”(committed),而LEO值是14,8~13的消息就是未完全备份(fully replicated)——为什么没有14?LEO指向的是下一条消息到来时的位移。
消费者无法消费分区下Leader副本中位移大于分区HW的消息。
Follower副本何时更新LEO
Follower副本不停地向Leader副本所在的Broker发送FETCH请求,一旦获取消息后写入自己的日志中进行备份。那么Follower副本的LEO是何时更新的呢?首先我必须言明,Kafka有两套Follower副本LEO:
- 一套LEO保存在Follower副本所在Broker的副本管理机中
- 另一套LEO保存在Leader副本所在Broker的副本管理机中。Leader副本机器上保存了所有的Follower副本的LEO
Kafka使用前者帮助Follower副本更新其HW值,利用后者帮助Leader副本更新其HW。
- Follower副本的本地LEO何时更新?
Follower副本的LEO值就是日志的LEO值,每当新写入一条消息,LEO值就会被更新。当Follower发送FETCH请求后,Leader将数据返回给Follower,此时Follower开始Log写数据,从而自动更新LEO值。
- Leader端Follower的LEO何时更新?
Leader端的Follower的LEO更新发生在Leader在处理Follower FETCH请求时。一旦Leader接收到Follower发送的FETCH请求,它先从Log中读取相应的数据,给Follower返回数据前,先更新Follower的LEO
Follower副本何时更新HW
Follower更新HW发生在其更新LEO之后,一旦Follower向Log写完数据,尝试更新自己的HW值。比较当前LEO值与FETCH响应中Leader的HW值,取两者的小者作为新的HW值。
即:如果Follower的LEO大于Leader的HW,Follower HW值不会大于Leader的HW值。
Leader副本何时更新LEO
和Follower更新LEO相同,Leader写Log时自动更新自己的LEO值。
Leader副本何时更新HW值
Leader的HW值就是分区HW值,直接影响分区数据对消费者的可见性 。
Leader会尝试去更新分区HW的四种情况:
- Follower副本成为Leader副本时:Kafka会尝试去更新分区HW
- Broker崩溃导致副本被踢出ISR时:检查下分区HW值是否需要更新是有必要的
- 生产者向Leader副本写消息时:因为写入消息会更新Leader的LEO,有必要检查HW值是否需要更新
- Leader处理Follower FETCH请求时:首先从Log读取数据,之后尝试更新分区HW值
结论
当Kafka Broker都正常工作时,分区HW值的更新时机有两个:
- Leader处理PRODUCE请求时
- Leader处理FETCH请求时
Leader如何更新自己的HW值?
Leader broker上保存了一套Follower副本的LEO以及自己的LEO。当尝试确定分区HW时,它会选出所有满足条件的副本,比较它们的LEO(包括Leader的LEO),并选择最小的LEO值作为HW值。
需要满足的条件(二选一):
- 处于ISR中
- 副本LEO落后于Leader LEO的时长不大于
replica.lag.time.max.ms
参数值(默认是10s)
如果Kafka只判断第一个条件的话,确定分区HW值时就不会考虑这些未在ISR中的副本,但这些副本已经具备了“立刻进入ISR”的资格,因此就可能出现分区HW值越过ISR中副本LEO的情况——不允许。因为分区HW定义就是ISR中所有副本LEO的最小值。
HW和LEO正常更新案例
我们假设有一个Topic,单分区,副本因子是2,即一个Leader副本和一个Follower副本。我们看下当Producer发送一条消息时,Broker端的副本到底会发生什么事情以及分区HW是如何被更新的。
初始状态
初始时Leader和Follower的HW和LEO都是0(严格来说源代码会初始化LEO为-1,不过这不影响之后的讨论)。Leader中的Remote LEO指的就是Leader端保存的Follower LEO,也被初始化成0。此时,生产者没有发送任何消息给Leader,而Follower已经开始不断地给Leader发送FETCH请求了,但因为没有数据因此什么都不会发生。值得一提的是,Follower发送过来的FETCH请求因为无数据而暂时会被寄存到Leader端的purgatory中,待500ms (replica.fetch.wait.max.ms
参数)超时后会强制完成。倘若在寄存期间生产者发来数据,则Kafka会自动唤醒该FETCH请求,让Leader继续处理。
Follower发送FETCH请求在Leader处理完PRODUCE请求之后
Producer给该Topic分区发送了一条消息,此时的状态如下图所示:
如上图所示,Leader接收到PRODUCE请求主要做两件事情:
- 把消息写入Log,同时自动更新Leader自己的LEO
- 尝试更新Leader HW值。假设此时Follower尚未发送FETCH请求,Leader端保存的Remote LEO依然是0,因此Leader会比较它自己的LEO值和Remote LEO值,发现最小值是0,与当前HW值相同,故不会更新分区HW值(仍为0)
PRODUCE请求处理完成后各值如下,Leader端的HW值依然是0,而LEO是1,Remote LEO也是0。
假设此时Follower发送了FETCH请求,则状态变更如下:
本例中当Follower发送FETCH请求时,Leader端的处理依次是:
- 读取Log数据
- 更新remote LEO = 0(为什么是0? 因为此时Follower还没有写入这条消息。Leader如何确认Follower还未写入呢?这是通过Follower发来的FETCH请求中的Fetch offset来确定的)
- 尝试更新分区HW:此时Leader LEO = 1,Remote LEO = 0,故分区HW值= min(Leader LEO,Follower Remote LEO) = 0
- 把数据和当前分区HW值(依然是0)发送给Follower副本
把数据和当前分区HW值(依然是0)发送给Follower副本
- 写入本地Log,同时更新Follower自己管理的 LEO为1
- 更新Follower HW:比较本地LEO和 FETCH Response 中的当前Leader HW值,取较小者,Follower HW = 0
此时,第一轮FETCH RPC结束,我们会发现虽然Leader和Follower都已经在Log中保存了这条消息,但分区HW值尚未被更新,仍为0。
Follower第二轮FETCH
分区HW是在第二轮FETCH RPC中被更新的,如下图所示:
Follower发来了第二轮FETCH请求,Leader端接收到后仍然会依次执行下列操作:
- 读取Log数据
- 更新Remote LEO = 1(这次为什么是1了? 因为这轮FETCH RPC携带的fetch offset是1,那么为什么这轮携带的就是1了呢,因为上一轮结束后Follower LEO被更新为1了)
- 尝试更新分区HW:此时leader LEO = 1,Remote LEO = 1,故分区HW值= min(Leader LEO,Follower Remote LEO) = 1
- 把数据(实际上没有数据)和当前分区HW值(已更新为1)发送给Follower副本作为Response
同样地,Follower副本接收到FETCH response后依次执行下列操作:
- 写入本地Log,当然没东西可写,Follower LEO也不会变化,依然是1
- 更新Follower HW:比较本地LEO和当前Leader LEO取小者。由于都是1,故更新Follower HW = 1
此时消息已经成功地被复制到Leader和Follower的Log中且分区HW是1,表明消费者能够消费offset = 0的消息。
FETCH请求保存在purgatory中,PRODUCE请求到来
当Leader无法立即满足FECTH返回要求的时候(比如没有数据),那么该FETCH请求被暂存到Leader端的purgatory中(炼狱),待时机成熟尝试再次处理。Kafka不会无限期缓存,默认有个超时时间(500ms),一旦超时时间已过,则这个请求会被强制完成。当寄存期间还没超时,生产者发送PRODUCE请求从而使之满足了条件以致被唤醒。此时,Leader端处理流程如下:
- Leader写Log(自动更新Leader LEO)
- 尝试唤醒在purgatory中寄存的FETCH请求
- 尝试更新分区HW
HW和LEO异常案例
Kafka使用HW值来决定副本备份的进度,而HW值的更新通常需要额外一轮FETCH RPC才能完成。但这种设计是有问题的,可能引起的问题包括:
- 备份数据丢失
- 备份数据不一致
数据丢失
使用HW值来确定备份进度时其值的更新是在下一轮RPC中完成的。如果Follower副本在标记上方的的第一步与第二步之间发生崩溃,那么就有可能造成数据的丢失。
上图中有两个副本:A和B。开始状态是A是Leader。
假设生产者min.insync.replicas
为1,那么当生产者发送两条消息给A后,A写入Log,此时Kafka会通知生产者这两条消息写入成功。
假设此时B已经发起了两次拉取,每次拉取一条记录,根据上一节的介绍,此时B的LEO是2,但是HW是1。
倘若此时副本B所在的Broker宕机,那么重启后B会自动把LEO调整到之前的HW值1,故副本B会做日志截断(log truncation),将offset = 1的那条消息从log中删除,并调整LEO = 1。此时Follower副本底层log中就只有一条消息,即offset = 0的消息!
B重启之后需要给A发FETCH请求,但若A所在Broker机器在此时宕机,那么Kafka会令B成为新的Leader,而当A重启回来后也会执行日志截断,将HW调整回1。这样,offset=1的消息就从两个副本的log中被删除,也就是说这条已经被生产者认为发送成功的数据丢失。
丢失数据的前提是min.insync.replicas=1
时,一旦消息被写入Leader端Log即被认为是committed 。延迟一轮FETCH RPC更新HW值的设计使Follower HW值是异步延迟更新,若在这个过程中Leader发生变更,那么成为新Leader的Follower的HW值就有可能是过期的,导致生产者本是成功提交的消息被删除。
Leader和Follower数据离散
除了可能造成的数据丢失以外,该设计还会造成Leader的Log和Follower的Log数据不一致。
如Leader端记录序列:m1,m2,m3,m4,m5,…;Follower端序列可能是m1,m3,m4,m5,…。
假设:A是Leader,A的Log写入了2条消息,但B的Log只写了1条消息。A分区HW更新到2,但B的HW还是1,同时生产者min.insync.replicas
仍然为1。
假设A和B所在Broker同时宕机,B先重启回来,因此B成为Leader,分区HW = 1。假设此时生产者发送了第3条消息(红色表示)给B,于是B的log中offset = 1的消息变成了红框表示的消息,同时分区HW更新到2(A还没有回来,就B一个副本,故可以直接更新HW而不用理会A)之后A重启回来,需要执行日志截断,但发现此时分区HW=2而A之前的HW值也是2,故不做任何调整。此后A和B将以这种状态继续正常工作。
显然,这种场景下,A和B的Log中保存在offset = 1的消息是不同的记录,从而引发不一致的情形出现。
Leader Epoch使用
造成上述两个问题的根本原因在于:
- HW值被用于衡量副本备份的成功与否
- 在出现失败重启时作为日志截断的依据
但HW值的更新是异步延迟的,特别是需要额外的FETCH请求处理流程才能更新,故这中间发生的任何崩溃都可能导致HW值的过期。
Kafka从0.11引入了leader epoch来取代HW值。Leader端使用内存保存Leader的epoch信息,即使出现上面的两个场景也能规避这些问题。
所谓Leader epoch实际上是一对值:<epoch, offset>
:
- epoch表示Leader的版本号,从0开始,Leader变更过1次,epoch+1
- offset对应于该epoch版本的Leader写入第一条消息的offset
假设有两对值:
<0, 0>
<1, 120>
则表示第一个Leader从位移0开始写入消息;共写了120条[0, 119];而第二个Leader版本号是1,从位移120处开始写入消息。
- Leader Broker中会保存这样的一个缓存,并定期地写入到一个checkpoint文件中
- 当Leader写Log时它会尝试更新整个缓存:如果这个Leader首次写消息,则会在缓存中增加一个条目;否则就不做更新
- 每次副本变为Leader时会查询这部分缓存,获取出对应Leader版本的位移,则不会发生数据不一致和丢失的情况
规避数据丢失
只需要知道每个副本都引入了新的状态来保存自己当leader时开始写入的第一条消息的offset以及Leader版本。这样在恢复的时候完全使用这些信息而非HW来判断是否需要截断日志。
规避数据不一致
依靠Leader epoch的信息可以有效地规避数据不一致的问题。
消息重复的场景及解决方案
消息重复和丢失是kafka中很常见的问题,主要发生在以下三个阶段:
- 生产者阶段
- Broke阶段
- 消费者阶段
生产者阶段重复场景
根本原因
生产发送的消息没有收到正确的Broke响应,导致生产者重试。
生产者发出一条消息,Broke落盘以后因为网络等种种原因发送端得到一个发送失败的响应或者网络中断,然后生产者收到一个可恢复的Exception重试消息导致消息重复。
重试过程
说明:
new KafkaProducer()
后创建一个后台线程KafkaThread
扫描RecordAccumulator
中是否有消息- 调用
KafkaProducer.send()
发送消息,实际上只是把消息保存到RecordAccumulator
中 - 后台线程
KafkaThread
扫描到RecordAccumulator
中有消息后,将消息发送到kafka集群 - 如果发送成功,那么返回成功
- 如果发送失败,那么判断是否允许重试。如果不允许重试,那么返回失败的结果;如果允许重试,把消息再保存到
RecordAccumulator
中,等待后台线程KafkaThread
扫描再次发送
可恢复异常说明
异常是RetriableException
类型或者TransactionManager
允许重试;RetriableException
类继承关系如下:
记录顺序问题
如果设置max.in.flight.requests.per.connection
大于1(默认5,单个连接上发送的未确认请求的最大数量,表示上一个发出的请求没有确认下一个请求又发出了)。大于1可能会改变记录的顺序,因为如果将两个batch发送到单个分区,第一个batch处理失败并重试,但是第二个batch处理成功,那么第二个batch处理中的记录可能先出现被消费。
设置max.in.flight.requests.per.connection
为1,可能会影响吞吐量,可以解决单个生产者发送顺序问题。如果多个生产者,生产者1先发送一个请求,生产者2后发送请求,此时生产者1返回可恢复异常,重试一定次数成功了。虽然生产者1先发送消息,但生产者2发送的消息会被先消费。
生产者发送重复解决方案
启动kafka的幂等性
要启动kafka的幂等性,设置:enable.idempotence=true
,以及ack=all
以及retries > 1
。ack=0
表示不重试,可能会丢消息,适用于吞吐量指标重要性高于数据丢失,例如:日志收集。
生产者和broker阶段消息丢失场景
ack=0,不重试
生产者发送消息完,不管结果了,如果发送失败也就丢失了。
ack=1,leader crash
生产者发送消息完,只等待Leader写入成功就返回了,Leader分区丢失了,此时Follower没来及同步,消息丢失。
unclean.leader.election.enable配置true
允许选举ISR以外的副本作为leader,会导致数据丢失,默认为false。生产者发送异步消息,只等待Leader写入成功就返回,Leader分区丢失,此时ISR中没有Follower,Leader从OSR中选举,因为OSR中本来落后于Leader造成消息丢失。
解决生产者和broker阶段消息丢失
禁用unclean选举,ack=all
ack=all / -1,retries > 1,unclean.leader.election.enable : false
生产者发完消息,等待Follower同步完再返回,如果异常则重试。副本的数量可能影响吞吐量,不超过5个,一般三个。
不允许unclean Leader选举。
配置:min.insync.replicas > 1
当生产者将acks
设置为all
(或 -1 )时,min.insync.replicas>1
。指定确认消息写成功需要的最小副本数量。达不到这个最小值,生产者将引发一个异常(要么是NotEnoughReplicas
,要么是NotEnoughReplicasAfterAppend
)。
当一起使用时,min.insync.replicas
和ack
允许执行更大的持久性保证。一个典型的场景是创建一个复制因子为3的主题,设置min.insync
复制到2个,用all配置发送。将确保如果大多数副本没有收到写操作,则生产者将引发异常。
失败的offset单独记录
生产者发送消息,会自动重试,遇到不可恢复异常会抛出,这时可以捕获异常记录到数据库或缓存,进行单独处理。
消费者数据重复场景及解决方案
根本原因
数据消费完没有及时提交offset到Broker。
场景
消息消费端在消费过程中挂掉没有及时提交offset到Broke,另一个消费端启动拿之前记录的offset开始消费,由于offset的滞后性可能会导致新启动的客户端有少量重复消费。
解决方案
取消自动提交
每次消费完或者程序退出时手动提交。这可能也没法保证一条重复。
下游做幂等
一般是让下游做幂等或者尽量每消费一条消息都记录offset,对于少数严格的场景可能需要把offset或唯一ID(例如订单ID)和下游状态更新放在同一个数据库里面做事务来保证精确的一次更新或者在下游数据表里面同时记录消费offset,然后更新下游数据的时候用消费位移做乐观锁拒绝旧位移的数据更新。
__consumer_offsets
ZooKeeper不适合大批量的频繁写入操作。
Kafka 1.0.2将Consumer的位移信息保存在Kafka内部的Topic中,即__consumer_offsets
主题,并且默认提供了kafka_consumer_groups.sh
脚本供用户查看Consumer信息。
创建topic “tp_test_01”
[root@node1 ~]# kafka-topics.sh --zookeeper node1:2181/myKafka --create --
topic tp_test_01 --partitions 5 --replication-factor 1
使用kafka-console-producer.sh脚本生产消息
[root@node1 ~]# for i in `seq 100`; do echo "hello rubin $i" >> messages.txt;
done
[root@node1 ~]# kafka-console-producer.sh --broker-list node1:9092 --topic
tp_test_01 < messages.txt
由于默认没有指定key,所以根据round-robin方式,消息分布到不同的分区上。 (本例中生产了100条消息)
验证消息生产成功
[root@node1 ~]# kafka-console-producer.sh --broker-list node1:9092 --topic
tp_test_01 < messages.txt
>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>
>>>>>>>>>>>>>>>>>>>>>>>>
[root@node1 ~]# kafka-run-class.sh
kafka.tools.GetOffsetShell --broker-list node1:9092 --topic tp_test_01 --time
-1
tp_test_01:2:20
tp_test_01:4:20
tp_test_01:1:20
tp_test_01:3:20
tp_test_01:0:20
结果输出表明100条消息全部生产成功!
创建一个console consumer group
[root@node1 ~]#kafka-console-consumer.sh --bootstrap-server node1:9092 --
topic tp_test_01 --from-beginning
获取该consumer group的group id(后面需要根据该id查询它的位移信息)
[root@node1 ~]# kafka-consumer-groups.sh --bootstrap-server node1:9092 --list
输出: console-consumer-49366 (记住这个id!)
查询__consumer_offsets topic所有内容
注意:运行下面命令前先要在consumer.properties中设置exclude.internal.topics=false!!!
[root@node1 ~]# kafka-console-consumer.sh --topic __consumer_offsets --
bootstrap-server node1:9092 --formatter
"kafka.coordinator.group.GroupMetadataManager\$OffsetsMessageFormatter" --
consumer.config config/consumer.properties --from-beginning
默认情况下__consumer_offsets
有50个分区,如果你的系统中consumer group也很多的话,那么这个命令的输出结果会很多。
计算指定consumer group在__consumer_offsets topic中分区信息
这时候就用到了第5步获取的group.id(本例中是console-consumer-49366)。Kafka会使用下面公式计算该group位移保存在__consumer_offsets
的哪个分区上:
Math.abs(groupID.hashCode()) % numPartitions
获取指定consumer group的位移信息
[root@node1 ~]# kafka-simple-consumer-shell.sh --topic __consumer_offsets --
partition 19 --broker-list node1:9092 --formatter
"kafka.coordinator.group.GroupMetadataManager\$OffsetsMessageFormatter"
下面是输出结果:
...
[console-consumer-49366,tp_test_01,3]::
[OffsetMetadata[20,NO_METADATA],CommitTime 1596424702212,ExpirationTime
1596511102212]
[console-consumer-49366,tp_test_01,4]::
[OffsetMetadata[20,NO_METADATA],CommitTime 1596424702212,ExpirationTime
1596511102212]
[console-consumer-49366,tp_test_01,0]::
[OffsetMetadata[20,NO_METADATA],CommitTime 1596424702212,ExpirationTime
1596511102212]
[console-consumer-49366,tp_test_01,1]::
[OffsetMetadata[20,NO_METADATA],CommitTime 1596424702212,ExpirationTime
1596511102212]
[console-consumer-49366,tp_test_01,2]::
[OffsetMetadata[20,NO_METADATA],CommitTime 1596424702212,ExpirationTime
1596511102212]
[console-consumer-49366,tp_test_01,3]::
[OffsetMetadata[20,NO_METADATA],CommitTime 1596424707212,ExpirationTime
1596511107212]
[console-consumer-49366,tp_test_01,4]::
[OffsetMetadata[20,NO_METADATA],CommitTime 1596424707212,ExpirationTime
1596511107212]
[console-consumer-49366,tp_test_01,0]::
[OffsetMetadata[20,NO_METADATA],CommitTime 1596424707212,ExpirationTime
1596511107212]
...
上图可见,该consumer group果然保存在分区11上,且位移信息都是对的(这里的位移信息是已消费的位移,严格来说不是第3步中的位移。由于我的consumer已经消费完了所有的消息,所以这里的位移与第3步中的位移相同)。另外,可以看到__consumer_offsets
Topic的每一日志项的格式都是:[Group, Topic, Partition]::[OffsetMetadata[Offset, Metadata], CommitTime, ExpirationTime]。
以上就是本文的全部内容。欢迎小伙伴们积极留言交流~~~
文章评论