欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

8. 自定义拦截器Interceptor

程序员文章站 2022-07-09 22:42:21
...

自定义拦截器Interceptor

1. 拦截器原理

  1. Producer 拦截器(interceptor)是在 Kafka 0.10 版本被引入的,主要用于实现 clients 端的定制化控制逻辑。
  2. 对于 producer 而言,interceptor 使得用户在消息发送前以及 producer 回调逻辑前有机会对消息做一些定制化需求,比如修改消息等。
  3. 同时,producer 允许用户指定多个 interceptor按序作用于同一条消息从而形成一个拦截链(interceptor chain)。Intercetpor 的实现接口是org.apache.kafka.clients.producer.ProducerInterceptor,其定义的方法包括:
  • configure(configs)
    • 获取配置信息和初始化数据时调用。
  • onSend(ProducerRecord):
    • 该方法封装进 KafkaProducer.send 方法中,即它运行在用户主线程中。Producer 确保在消息被序列化以及计算分区前调用该方法。用户可以在该方法中对消息做任何操作,但最好保证不要修改消息所属的 topic 和分区,否则会影响目标分区的计算。
  • onAcknowledgement(RecordMetadata, Exception)
    • 该方法会在消息从 RecordAccumulator 成功发送到 Kafka Broker 之后,或者在发送过程中失败时调用。并且通常都是在 producer 回调逻辑触发之前。onAcknowledgement 运行在producer 的 IO 线程中,因此不要在该方法中放入很重的逻辑,否则会拖慢 producer 的消息发送效率。
  • close
    • 关闭 interceptor,主要用于执行一些资源清理工作如前所述,interceptor 可能被运行在多个线程中,因此在具体实现时用户需要自行确保线程安全。另外倘若指定了多个 interceptor,则 producer 将按照指定顺序调用它们,并仅仅是捕获每个 interceptor 可能抛出的异常记录到错误日志中而非在向上传递。这在使用过程中要特别留意。

2. 拦截器案例

2.1 需求

实现一个简单的双 interceptor 组成的拦截链。

  • 第一个 interceptor 会在消息发送前将时间戳信息加到消息value 的最前部;
  • 第二个 interceptor 会在消息发送后更新成功发送消息数或失败发送消息数。
  • 8. 自定义拦截器Interceptor

2.2 代码实现

TimeInterceptor

增加时间戳拦截器

/**
 * @Date 2020/8/21 13:59
 * @Version 10.21
 * @Author DuanChaojie
 */
public class TimeInterceptor implements ProducerInterceptor<String,String> {


    @Override
    public void configure(Map<String, ?> configs) {

    }

    @Override
    public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
        String topic = record.topic();
        Integer partition = record.partition();
        Long timestamp = record.timestamp();
        String key = record.key();
        String value = record.value();
        // 创建一个新的 record,把时间戳写入消息体的最前部
        return  new  ProducerRecord(topic,partition,timestamp,key,System.currentTimeMillis()+"," +value);
    }

    @Override
    public void onAcknowledgement(RecordMetadata metadata, Exception exception) {

    }

    @Override
    public void close() {

    }

}
CounterInterceptor

统计发送消息成功和发送失败消息数,并在 producer 关闭时打印这两个计数器。

/**
 * @Date 2020/8/21 14:04
 * @Version 10.21
 * @Author DuanChaojie
 */
public class CounterInterceptor implements ProducerInterceptor {
    private int success;
    private int error;

    @Override
    public void configure(Map<String, ?> configs) {

    }

    @Override
    public ProducerRecord onSend(ProducerRecord record) {
        return record;
    }

    @Override
    public void onAcknowledgement(RecordMetadata metadata, Exception exception) {
        // 统计成功和失败的次数
        if (metadata != null) {
            success++;
        } else {
            error++;
        }
    }

    @Override
    public void close() {
        System.out.println("success = " + success);
        System.out.println("error = " + error);
    }


}
InterceptorProducer
public class InterceptorProducer {
    public static void main(String[] args) {

        // 1,生产者的配置信息
        Properties properties = new Properties();
        //配置属性可以使用工具类,ProducerConfig,ConsumerConfig,CommonClientConfigs
        properties.put("bootstrap.servers", "hadoop102:9092");
        properties.put("acks", "all");
        properties.put("retries", 3);
        properties.put("batch.size", 16384);
        properties.put("linger.ms", 1);
        properties.put("buffer.memory", 33554432);
        properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        // 构建拦截链
        List<String> interceptors = new ArrayList<>();
        interceptors.add("com.atguigu.interceptor.TimeInterceptor");
        interceptors.add("com.atguigu.interceptor.CounterInterceptor");
        properties.put("interceptor.classes",interceptors);


        // 创建生产者对象
        Producer<String,String> producer = new KafkaProducer<>(properties);

        // 发送数据
        for (int i = 0; i < 10; i++) {
            producer.send(new ProducerRecord<>("first","atguigu---"+i),(metadata, exception) -> {
                if (exception == null) {
                    System.out.println(metadata.partition() + "-----------"+ metadata.offset());
                }else {
                    exception.printStackTrace();
                }
            });
        }


        // 一定要关闭 producer,这样才会调用 interceptor 的 close 方法
        producer.close();
    }
}

2.3 测试

#在 kafka 上启动消费者,然后运行客户端 java 程序
bin/kafka-console-consumer.sh --zookeeper hadoop:2181 --topic first

#结果:
##Java客户端:
1-----------0
1-----------1
1-----------2
1-----------3
1-----------4
0-----------0
0-----------1
0-----------2
0-----------3
0-----------4
success = 10
error = 0

##Kafka消费端
1597996076908,atguigu---1
1597996076909,atguigu---3
1597996076909,atguigu---5
1597996076909,atguigu---7
1597996076910,atguigu---9
1597996076725,atguigu---0
1597996076909,atguigu---2
1597996076909,atguigu---4
1597996076909,atguigu---6
1597996076909,atguigu---8

org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms

测试中遇到的问题:上面是解决方案。

相关标签: kafka 大数据