SpringBoot+Nacos+Kafka微服务流编排的简单实现
前言
最近一直在做微服务开发,涉及了一些数据处理模块的开发,每个处理业务都会开发独立的微服务,便于后面拓展和流编排,学习了springcloud data flow等框架,感觉这个框架对于我们来说太重了,维护起来也比较麻烦,于是根据流编排的思想,基于我们目前的技术栈实现简单的流编排功能。
简单的说,我们希望自己的流编排就是微服务可插拔,微服务数据入口及输出可不停机修改。
准备工作
nacos安装及使用入门
自己学习的话推荐使用docker安装,命令如下
- 拉取镜像 docker pull nacos/nacos-server
- 创建服务 docker run --env mode=standalone --name nacos -d -p 8848:8848 nacos/nacos-server
然后在浏览器输入 ip:8848/nacos 账号nacos 密码nacos
docker能够帮助我们快速安装服务,减少再环境准备花的时间
准备三个springboot服务,引入nacos及kafka
<parent> <groupid>org.springframework.boot</groupid> <artifactid>spring-boot-starter-parent</artifactid> <version>2.1.0.release</version> </parent> <dependency> <groupid>org.springframework.kafka</groupid> <artifactid>spring-kafka</artifactid> </dependency> <dependency> <groupid>com.alibaba.boot</groupid> <artifactid>nacos-config-spring-boot-starter</artifactid> <version>0.2.1</version> </dependency>
配置文件
spring: kafka: bootstrap-servers: kafka-server:9092 producer: acks: all consumer: group-id: node1-group #三个服务分别为node1 node2 node3 enable-auto-commit: false # 部署的nacos服务 nacos: config: server-addr: nacos-server:8848
建议配置本机host 就可以填写xxx-server 不用填写服务ip
业务解读
我们现在需要对三个服务进行编排,保障每个服务可以插拔,也可以调整服务的位子示意图如下:
- node1服务监听前置服务发送的数据流,输入的topic为前置数据服务输出topic
- node2监听node1处理后的数据,所以node2监听的topic为node1输出的topic,node3同理,最终node3处理完成后将数据发送到数据流终点
- 我们现在要调整流程 移除node2-server,我们只需要把node1-sink改变成node2-sink即可,这样我们这几个服务就可以灵活的嵌入的不同项目的数据流处理业务中,做到即插即用(当然,数据格式这些业务层面的都是需要约定好的)
- 动态可调还可以保证服务某一节点出现问题时候,即时改变数据流向,比如发送到数暂存服务,避免kafka中积累太多数据,吞吐不平衡
nacos配置
创建配置
通常流编排里面每个服务都有一个输入及输出,分别为input及sink,所以每个服务我们需要配置两个topic,分别是input-topic output-topic,我们就在nacos里面添加输入输出配置
nacos配置项需要配置groupid,dataid,通常我们用服务名称作为groupid,配置项的名称作为dataid,如node1-server服务有一个input配置项,配置如下:
完成其中一个服务的配置,其它服务参考下图配置即可
读取配置
@configuration @nacospropertysource(dataid = "input", groupid = "node1-server", autorefreshed = true) // autorefreshed=true指的是nacos中配置发生改变后会刷新,false代表只会使用服务启动时候读取到的值 @nacospropertysource(dataid = "sink", groupid = "node1-server", autorefreshed = true) public class nacosconfig { @nacosvalue(value = "${input:}", autorefreshed = true) private string input; @nacosvalue(value = "${sink:}", autorefreshed = true) private string sink; public string getinput() { return input; } public string getsink() { return sink; } }
监听配置改变
服务的输入需要在服务启动时候创建消费者,在topic发生改变时候重新创建消费者,移除旧topic的消费者,输出是业务驱动的,无需监听改变,在每次发送时候读取到的都是最新配置的topic,因为在上面的配置类中autorefreshed = true,这个只会刷新nacosconfig中的配置值,服务需要知道配置改变去驱动消费的创建业务,需要创建nacos配置监听
/** * 监听nacos配置改变,创建消费者,更新消费 */ @component public class consumermanager { @value("${spring.kafka.bootstrap-servers}") private string servers; @value("${spring.kafka.consumer.enable-auto-commit}") private boolean enableautocommit; @value("${spring.kafka.consumer.group-id}") private boolean groupid; @autowired private nacosconfig nacosconfig; @autowired private kafkatemplate kafkatemplate; // 用于存放当前消费者使用的topic private string topic; // 用于执行消费者线程 private executorservice executorservice; /** * 监听input */ @nacosconfiglistener(dataid = "node1-server", groupid = "input") public void inputlistener(string input) { // 这个监听触发的时候 实际nacosconfig中input的值已经是最新的值了 我们只是需要这个监听触发我们更新消费者的业务 string inputtopic = nacosconfig.getinput(); // 我使用nacosconfig中读取的原因是因为监听到内容是input=xxxx而不是xxxx,如果使用需要自己截取一下,nacosconfig中的内容框架会处理好,大家看一下第一张图的配置内容就明白了 // 先检查当前局部变量topic是否有值,有值代表是更新消费者,没有值只需要创建即可 if(topic != null) { // 停止旧的消费者线程 executorservice.shutdownnow(); executorservice == null; } // 根据为新的topic创建消费者 topic = inputtopic; threadfactory threadfactory = new threadfactorybuilder().setnameformat(topic + "-pool-%d").build(); executorservice = new threadpoolexecutor(1, 1, 0l, timeunit.milliseconds, new linkedblockingqueue<runnable>(2), threadfactory); // 执行消费业务 executorservice.execute(() -> consumer(topic)); } /** * 创建消费者 */ public void consumer(string topic) { properties properties = new properties(); properties.put("bootstrap.servers", servers); properties.put("enable.auto.commit", enableautocommit); properties.put("key.deserializer", "org.apache.kafka.common.serialization.stringdeserializer"); properties.put("value.deserializer", "org.apache.kafka.common.serialization.stringdeserializer"); properties.put("group.id", groupid); kafkaconsumer<string, string> consumer = new kafkaconsumer<>(properties); consumer.subscribe(arrays.aslist(topic)); try { while (!thread.currentthread().isinterrupted()) { duration duration = duration.ofseconds(1l); consumerrecords<string, string> records = consumer.poll(duration); for (consumerrecord<string, string> record : records) { string message = record.value(); // 执行数据处理业务 省略业务实现 string handlemessage = handle(message); // 处理完成后发送到下一个节点 kafkatemplate.send(nacosconfig.getsink(), handlemessage); } } consumer.commitasync(); } } catch (exception e) { logger.error(e.getmessage(), e); } finally { try { consumer.commitsync(); } finally { consumer.close(); } } } }
总结
流编排的思路整体来说就是数据流方向可调,我们以此为需求,根据一些主流框架提供的api实现自己的动态调整方案,可以帮助自己更好的理解流编码思想及原理,在实际业务中,还有许多业务问题需要去突破,我们这样处理更多是因为服务可插拔,便于流处理微服务在项目灵活搭配,因为我现在工作是在传统公司,由于一些原因很难去推动新框架的使用,经常会用一些现有技术栈组合搞一些sao操作,供大家参考,希望大家多多指教。
到此这篇关于springboot+nacos+kafka微服务流编排的简单实现的文章就介绍到这了,更多相关springboot+nacos+kafka流编排内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!