跳到主要内容

提示、技巧和示例

ChatGPT-4o-mini 中英对照 Tips, Tricks and Examples

手动分配所有分区

假设你想始终从所有分区读取所有记录(例如在使用压缩主题加载分布式缓存时),手动分配分区而不使用 Kafka 的组管理可能会很有用。当分区数量很多时,这样做可能会变得笨重,因为你必须列出所有分区。如果分区数量随时间变化,这也是一个问题,因为每次分区数量变化时,你都需要重新编译你的应用程序。

以下是一个示例,展示如何利用 SpEL 表达式的强大功能在应用程序启动时动态创建分区列表:

@KafkaListener(topicPartitions = @TopicPartition(topic = "compacted",
partitions = "#{@finder.partitions('compacted')}",
partitionOffsets = @PartitionOffset(partition = "*", initialOffset = "0")))
public void listen(@Header(KafkaHeaders.RECEIVED_KEY) String key, String payload) {
...
}

@Bean
public PartitionFinder finder(ConsumerFactory<String, String> consumerFactory) {
return new PartitionFinder(consumerFactory);
}

public static class PartitionFinder {

private final ConsumerFactory<String, String> consumerFactory;

public PartitionFinder(ConsumerFactory<String, String> consumerFactory) {
this.consumerFactory = consumerFactory;
}

public String[] partitions(String topic) {
try (Consumer<String, String> consumer = consumerFactory.createConsumer()) {
return consumer.partitionsFor(topic).stream()
.map(pi -> "" + pi.partition())
.toArray(String[]::new);
}
}

}
java

使用 ConsumerConfig.AUTO_OFFSET_RESET_CONFIG=earliest 可以在每次应用程序启动时加载所有记录。您还应该将容器的 AckMode 设置为 MANUAL,以防止容器为 null 消费者组提交偏移量。从版本 3.1 开始,当使用手动主题分配且没有消费者 group.id 时,容器将自动将 AckMode 强制为 MANUAL。然而,从版本 2.5.5 开始,如上所示,您可以对所有分区应用初始偏移量;有关更多信息,请参见 Explicit Partition Assignment

Kafka 事务与其他事务管理器的示例

以下 Spring Boot 应用程序是一个链式数据库和 Kafka 事务的示例。监听器容器启动 Kafka 事务,而 @Transactional 注解启动数据库事务。数据库事务首先被提交;如果 Kafka 事务提交失败,记录将被重新投递,因此数据库更新应该是幂等的。

@SpringBootApplication
public class Application {

public static void main(String[] args) {
SpringApplication.run(Application.class, args);
}

@Bean
public ApplicationRunner runner(KafkaTemplate<String, String> template) {
return args -> template.executeInTransaction(t -> t.send("topic1", "test"));
}

@Bean
public DataSourceTransactionManager dstm(DataSource dataSource) {
return new DataSourceTransactionManager(dataSource);
}

@Component
public static class Listener {

private final JdbcTemplate jdbcTemplate;

private final KafkaTemplate<String, String> kafkaTemplate;

public Listener(JdbcTemplate jdbcTemplate, KafkaTemplate<String, String> kafkaTemplate) {
this.jdbcTemplate = jdbcTemplate;
this.kafkaTemplate = kafkaTemplate;
}

@KafkaListener(id = "group1", topics = "topic1")
@Transactional("dstm")
public void listen1(String in) {
this.kafkaTemplate.send("topic2", in.toUpperCase());
this.jdbcTemplate.execute("insert into mytable (data) values ('" + in + "')");
}

@KafkaListener(id = "group2", topics = "topic2")
public void listen2(String in) {
System.out.println(in);
}

}

@Bean
public NewTopic topic1() {
return TopicBuilder.name("topic1").build();
}

@Bean
public NewTopic topic2() {
return TopicBuilder.name("topic2").build();
}

}
java
spring.datasource.url=jdbc:mysql://localhost/integration?serverTimezone=UTC
spring.datasource.username=root
spring.datasource.driver-class-name=com.mysql.cj.jdbc.Driver

spring.kafka.consumer.auto-offset-reset=earliest
spring.kafka.consumer.enable-auto-commit=false
spring.kafka.consumer.properties.isolation.level=read_committed

spring.kafka.producer.transaction-id-prefix=tx-

#logging.level.org.springframework.transaction=trace
#logging.level.org.springframework.kafka.transaction=debug
#logging.level.org.springframework.jdbc=debug
properties
create table mytable (data varchar(20));
sql

对于仅生产者的事务,事务同步工作如下:

@Transactional("dstm")
public void someMethod(String in) {
this.kafkaTemplate.send("topic2", in.toUpperCase());
this.jdbcTemplate.execute("insert into mytable (data) values ('" + in + "')");
}
java

KafkaTemplate 将与数据库事务同步,其提交/回滚在数据库之后发生。

如果您希望首先提交 Kafka 事务,并且仅在 Kafka 事务成功时提交数据库事务,请使用嵌套的 @Transactional 方法:

@Transactional("dstm")
public void someMethod(String in) {
this.jdbcTemplate.execute("insert into mytable (data) values ('" + in + "')");
sendToKafka(in);
}

@Transactional("kafkaTransactionManager")
public void sendToKafka(String in) {
this.kafkaTemplate.send("topic2", in.toUpperCase());
}
java

自定义 JsonSerializer 和 JsonDeserializer

序列化器和反序列化器支持通过属性进行多种自定义,更多信息请参见 JSONkafka-clients 代码(而非 Spring)实例化这些对象,除非您直接将它们注入到消费者和生产者工厂中。如果您希望通过属性配置 (de)serializer,但又想使用自定义的 ObjectMapper,只需创建一个子类并将自定义映射器传递给 super 构造函数。例如:

public class CustomJsonSerializer extends JsonSerializer<Object> {

public CustomJsonSerializer() {
super(customizedObjectMapper());
}

private static ObjectMapper customizedObjectMapper() {
ObjectMapper mapper = JacksonUtils.enhancedObjectMapper();
mapper.disable(SerializationFeature.WRITE_DATES_AS_TIMESTAMPS);
return mapper;
}

}
java