基于Spring Cloud Netflix的TCC柔性事务和EDA事件驱动示例
solar
spring cloud为开发者提供了快速构建分布式系统中的一些常见工具,如分布式配置中心,服务发现与注册中心,智能路由,服务熔断及降级,消息总线,分布式追踪的解决方案等。
本次实战以模拟下单流程为背景,结合spring cloud netflix和分布式事务解决方案中try confirm cancel模式与基于事件驱动的服务架构作为实战演示。
开发环境
- docker 1.13.1
- docker compose 1.11.1
- docker mysql 5.7.17
- docker rabbitmq 3.6.6
- java8 with jce
- spring cloud camden.sr6
系统结构
try confirm cancel 补偿模式
本实例遵循的是atomikos公司对微服务的分布式事务所提出的restful tcc解决方案。
restful tcc模式分3个阶段执行
- trying阶段主要针对业务系统检测及作出预留资源请求,若预留资源成功,则返回确认资源的链接与过期时间。
- confirm阶段主要是对业务系统的预留资源作出确认,要求tcc服务的提供方要对确认预留资源的接口实现幂等性,若confirm成功则返回204,资源超时则证明已经被回收且返回404。
- cancel阶段主要是在业务执行错误或者预留资源超时后执行的资源释放操作,cancel接口是一个可选操作,因为要求tcc服务的提供方实现自动回收的功能,所以即便是不认为进行cancel,系统也会自动回收资源。
event driven architecture 基于事件驱动架构
本实例中的order-ms与membership-ms之间的通信是基于事件驱动的。当订单被成功创建并且付款成功之后,该订单的部分信息将会发往membership-ms以进行积分的增加。
从系统层面看,order-ms在eda中是属于publisher角色,自然而然地membership-ms就是subscriber。
publisher中的事件状态转换如下:
- new —> pending —> done
- new —> pending —> failed / no_route / not_found / error
subscriber中的事件状态转换如下:
- new —> done
- new —> failed / not_found / error
部分功能介绍:
- publisher发送消息之前先将消息落地,目的是防止消息的错误发布(业务数据被回滚而消息却发布至broker)。
- publisher会周期性地扫描new状态的消息,并发布至broker。
- 启用mandatory与publisher confirms机制,在消息被持久化至磁盘后将会收到basic.ack,此时可选择将消息转换为done或者是直接将其删除。
- publisher将消息发布至broker后会将其状态由new更新为pending,pending状态的事件将会由另一定时器扫描在当前时钟的3秒之前发布,但是却并未得到basic.ack的事件,并重新发布至broker。意在消除在单实例的情况下因crash而导致消息状态丢失的边缘情况。
- subscriber的消息幂等性。
基础组件
zuul gateway
zuul在本实例中仅作为路由所使用,配置降低ribbon的读取与连接超时上限。
eureka h.a.
多个对等eureka节点组成高可用集群,并将注册列表的自我保护的阈值适当降低。
config server
- 如果远程配置中有密文
{cipher}*
,那么该密文的解密将会延迟至客户端启动的时候. 因此客户端需要配置aes的对称密钥encrypt.key
,并且客户端所使用的jre需要安装java 8 jce,否则将会抛出illegal key size
相关的异常。 (本例中docker compose构建的容器已经安装了jce,如果远程配置文件没有使用{cipher}*
也不必进行jce的安装) - 为了达到开箱即用,选用公开仓库github或者gitosc。
-
本项目中有两个自定义注解
@com.github.prontera.delay
控制方法的延时返回时间;@com.github.prontera.randomlythrowsexception
随机抛出异常,人为地制造异常。
默认的远程配置如下
solar: delay: time-in-millseconds: 0 exception: enabled: false factor: 7
这些自定义配置正是控制方法返回的时延,随机异常的因子等。
我在服务order
,product
,account
和tcc
中的所有controller上都添加了以上两个注解,当远程配置的更新时候,可以手工刷新/refresh
或通过webhook等方法自动刷新本地配置. 以达到模拟微服务繁忙或熔断等情况。
监控服务
spring boot admin
此应用提供了管理spring boot服务的简单ui,下图是在容器中运行时的服务健康检测页
hystrix dashboard
提供近实时依赖的统计和监控面板,以监测服务的超时,熔断,拒绝,降级等行为。
zipkin server
zipkin是一款开源的分布式实时数据追踪系统,其主要功能是聚集来自各个异构系统的实时监控数据,用来追踪微服务架构下的系统时延问题. 下图是对order
服务的请求进行追踪的情况。
业务服务
首次启动时通过flyway自动初始化数据库。
对spring cloud config server采用fail fast策略,一旦远程配置服务无法连接则无法启动业务服务。
account
用于获取用户信息,用户注册,修改用户余额,预留余额资源,确认预留余额,撤销预留余额。
product
用于获取产品信息,变更商品库存,预留库存资源,确认预留库存,撤销预留库存。
tcc coordinator
tcc资源协调器,其职责如下:
- 对所有参与者发起confirm请求。
- 无论是协调器发生的错误还是调用参与者所产生的错误,协调器都必须有自动恢复重试功能,尤其是在确认的阶段,以防止网络抖动的情况。
order
order
服务是本项目的入口,尽管所提供的功能很简单:
- 下单. 即生成预订单,为了更好地测试tcc功能,在下单时就通过feign向服务
account
与product
发起预留资源请求,并且记录入库。 - 确认订单. 确认订单时根据订单id从库中获取订单,并获取预留资源确认的uri,交由服务
tcc
统一进行确认,如果发生冲突即记录入库,等待人工处理。
membership
用于订单付款成功后,对下单用户的积分进行增加操作。该服务与订单服务是基于消息驱动以进行通信,达到事务的最终一致性。
swagger ui
下图为product
服务的swagger接口文档,根据下文的服务字典可知,本接口文档可通过http://localhost:8040/swagger-ui.html
进行访问. order
,account
和tcc
的文档访问方式亦是如出一撤。
运行
docker compose运行
在项目根路径下执行脚本build.sh
,该脚本会执行maven的打包操作,并会迭代目录下的*-compose.yml
进行容器构建。
构建完成后需要按照指定的顺序启动,需要注意的一点是容器内服务的启动是需要备留预热时间,并非docker容器启动后容器内的所有服务就能马上启动起来,要注意区分容器的启动和容器内的服务的启动,建议配合docker-compse logs来观察启动情况。而且容器之间的服务是有依赖的,如account-ms
和product-ms
此类业务服务的启动是会快速失败于config-ms
的失联。所以建议按照以下顺序启动docker容器,并且在一组docker容器服务完全启动后,再启动下一组的docker容器。
- 启动mysql,rabbitmq等基础组件docker-compose -f infrastructure-compose.yml up -d
- 启动eureka server与config serverdocker-compose -f basic-ms-compose.yml up -d
- 启动监控服务docker-compose -f monitor-ms-compose.yml up -d
- 启动业务服务docker-compose -f business-ms-compose.yml up -d
ide运行
因为程序本身按照docker启动,所以对于hostname需要在hosts文件中设置正确才能正常运行:
## solar 127.0.0.1 eureka1 127.0.0.1 eureka2 127.0.0.1 rabbitmq 127.0.0.1 zipkin_server 127.0.0.1 solar_mysql 127.0.0.1 gitlab
根据依赖关系,程序最好按照以下的顺序执行
docker mysql > docker rabbitmq > eureka server > config server > zipkin server > 其他业务微服务(account-ms, product-ms, order-ms, tcc-coordinator-ms等)
示例
根据附表中的服务字典,我们通过zuul或swagge对order
服务进行预订单生成操作。
post http://localhost:7291/order/api/v1/orders content-type: application/json;charset=utf-8 { "product_id": 7, "user_id": 1 }
成功后我们将得到预订单的结果
{ "data": { "id": 15, "create_time": "2017-03-28t18:18:02.206+08:00", "update_time": "1970-01-01t00:00:00+08:00", "delete_time": "1970-01-01t00:00:00+08:00", "user_id": 1, "product_id": 7, "price": 14, "status": "processing" }, "code": 20000 }
此时我们再确认订单
(如果想测试预留资源的补偿情况,那么就等15s后过期再发请求,注意容器与宿主机的时间)
post http://localhost:7291/order/api/v1/orders/confirmation content-type: application/json;charset=utf-8 { "order_id": 15 }
如果成功确认则返回如下结果
{ "data": { "id": 15, "create_time": "2017-03-28t18:18:02.206+08:00", "update_time": "2017-03-28t18:21:32.78+08:00", "delete_time": "1970-01-01t00:00:00+08:00", "user_id": 1, "product_id": 7, "price": 14, "status": "done" }, "code": 20000 }
至此就完成了一次tcc事务,当然你也可以测试超时和冲突的情况,这里就不再赘述。
拓展
使用gitlab作为远程配置仓库
本例中默认使用github或gitosc中的公开仓库,出于自定义的需要,我们可以在本地构建git仓库,这里选用gitlab为例。
将以下配置添加至docker compose中的文件中并启动docker gitlab容器:
gitlab: image: daocloud.io/daocloud/gitlab:8.16.7-ce.0 ports: - "10222:22" - "80:80" - "10443:443" volumes: - "./docker-gitlab/config/:/etc/gitlab/" - "./docker-gitlab/logs/:/var/log/gitlab/" - "./docker-gitlab/data/:/var/opt/gitlab/" environment: - tz=asia/shanghai
将项目的config-repo
添加至gitlab中,并修改config-ms
中git仓库的相关验证等参数即可。
服务字典
鉴于spring boot actuator的端点所带来的两面性,除了可以增加spring-boot-starter-security
来获得强度较弱的http basic认证外,我们还可以修改management.port
和management.context-path
来提高攻击成本. 是的,我对每一个服务都修改了以上两个属性,并且兼容了eureka server,hystrix dashboard,spring boot admin,使这些监控服务仍能正确工作. 因为对以上两个参数修改,我们的监控路径有所变化,如下表
原文:java架构笔记
免费java高级资料需要自己领取,涵盖了java、redis、mongodb、mysql、zookeeper、spring cloud、dubbo高并发分布式等教程,一共30g。
传送门: https://mp.weixin.qq.com/s/jzddfh-7ynudmkjt0irl8q