8. 自定义拦截器Interceptor
程序员文章站
2022-07-09 22:42:21
...
文章目录
自定义拦截器Interceptor
1. 拦截器原理
- Producer 拦截器(interceptor)是
在 Kafka 0.10 版本被引入的
,主要用于实现 clients 端的定制化控制逻辑。- 对于 producer 而言,interceptor 使得用户在消息发送前以及 producer 回调逻辑前有机会对消息做一些定制化需求,比如修改消息等。
- 同时,producer 允许用户指定多个 interceptor按序作用于同一条消息从而形成一个拦截链(interceptor chain)。Intercetpor 的实现接口是
org.apache.kafka.clients.producer.ProducerInterceptor
,其定义的方法包括:
configure(configs)
- 获取配置信息和初始化数据时调用。
onSend(ProducerRecord):
- 该方法封装进 KafkaProducer.send 方法中,即它运行在用户主线程中。Producer 确保在消息被序列化以及计算分区前调用该方法。用户可以在该方法中对消息做任何操作,但最好保证不要修改消息所属的 topic 和分区,否则会影响目标分区的计算。
onAcknowledgement(RecordMetadata, Exception)
- 该方法会在消息从 RecordAccumulator 成功发送到 Kafka Broker 之后,或者在发送过程中失败时调用。并且通常都是在 producer 回调逻辑触发之前。onAcknowledgement 运行在producer 的 IO 线程中,因此不要在该方法中放入很重的逻辑,否则会拖慢 producer 的消息发送效率。
close
- 关闭 interceptor,主要用于执行一些资源清理工作如前所述,interceptor 可能被运行在多个线程中,因此在具体实现时用户需要自行确保线程安全。另外倘若指定了多个 interceptor,则 producer 将按照指定顺序调用它们,并仅仅是捕获每个 interceptor 可能抛出的异常记录到错误日志中而非在向上传递。这在使用过程中要特别留意。
2. 拦截器案例
2.1 需求
实现一个简单的双 interceptor 组成的拦截链。
- 第一个 interceptor 会在消息发送前将时间戳信息加到消息value 的最前部;
- 第二个 interceptor 会在消息发送后更新成功发送消息数或失败发送消息数。
2.2 代码实现
TimeInterceptor
增加时间戳拦截器
/**
* @Date 2020/8/21 13:59
* @Version 10.21
* @Author DuanChaojie
*/
public class TimeInterceptor implements ProducerInterceptor<String,String> {
@Override
public void configure(Map<String, ?> configs) {
}
@Override
public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
String topic = record.topic();
Integer partition = record.partition();
Long timestamp = record.timestamp();
String key = record.key();
String value = record.value();
// 创建一个新的 record,把时间戳写入消息体的最前部
return new ProducerRecord(topic,partition,timestamp,key,System.currentTimeMillis()+"," +value);
}
@Override
public void onAcknowledgement(RecordMetadata metadata, Exception exception) {
}
@Override
public void close() {
}
}
CounterInterceptor
统计发送消息成功和发送失败消息数,并在 producer 关闭时打印这两个计数器。
/**
* @Date 2020/8/21 14:04
* @Version 10.21
* @Author DuanChaojie
*/
public class CounterInterceptor implements ProducerInterceptor {
private int success;
private int error;
@Override
public void configure(Map<String, ?> configs) {
}
@Override
public ProducerRecord onSend(ProducerRecord record) {
return record;
}
@Override
public void onAcknowledgement(RecordMetadata metadata, Exception exception) {
// 统计成功和失败的次数
if (metadata != null) {
success++;
} else {
error++;
}
}
@Override
public void close() {
System.out.println("success = " + success);
System.out.println("error = " + error);
}
}
InterceptorProducer
public class InterceptorProducer {
public static void main(String[] args) {
// 1,生产者的配置信息
Properties properties = new Properties();
//配置属性可以使用工具类,ProducerConfig,ConsumerConfig,CommonClientConfigs
properties.put("bootstrap.servers", "hadoop102:9092");
properties.put("acks", "all");
properties.put("retries", 3);
properties.put("batch.size", 16384);
properties.put("linger.ms", 1);
properties.put("buffer.memory", 33554432);
properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
// 构建拦截链
List<String> interceptors = new ArrayList<>();
interceptors.add("com.atguigu.interceptor.TimeInterceptor");
interceptors.add("com.atguigu.interceptor.CounterInterceptor");
properties.put("interceptor.classes",interceptors);
// 创建生产者对象
Producer<String,String> producer = new KafkaProducer<>(properties);
// 发送数据
for (int i = 0; i < 10; i++) {
producer.send(new ProducerRecord<>("first","atguigu---"+i),(metadata, exception) -> {
if (exception == null) {
System.out.println(metadata.partition() + "-----------"+ metadata.offset());
}else {
exception.printStackTrace();
}
});
}
// 一定要关闭 producer,这样才会调用 interceptor 的 close 方法
producer.close();
}
}
2.3 测试
#在 kafka 上启动消费者,然后运行客户端 java 程序
bin/kafka-console-consumer.sh --zookeeper hadoop:2181 --topic first
#结果:
##Java客户端:
1-----------0
1-----------1
1-----------2
1-----------3
1-----------4
0-----------0
0-----------1
0-----------2
0-----------3
0-----------4
success = 10
error = 0
##Kafka消费端
1597996076908,atguigu---1
1597996076909,atguigu---3
1597996076909,atguigu---5
1597996076909,atguigu---7
1597996076910,atguigu---9
1597996076725,atguigu---0
1597996076909,atguigu---2
1597996076909,atguigu---4
1597996076909,atguigu---6
1597996076909,atguigu---8
org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms
测试中遇到的问题:上面是解决方案。
☆
上一篇: Spring MVC(六)拦截器
下一篇: DNS搭建
推荐阅读