SpringCloud服务的平滑上下线的方法
吐槽
以前都是手撸rpc,最近接触springcloud,深感痛心。主要有以下几点:
1)代码量巨大,找bug时间长,超级复杂的设计
2)版本管理混乱,经常出现莫名其妙的配置错误(所以2.0是打死不敢上生产啊)
3)netflix公司的有些代码,实在是让人费解,根本就不考虑扩展性
4)生态链庞大,学习成本大
建议准备上微服务的同学,固定下一个版本,不要随意更新或降级。拿tomcat的basedir来说,1.5.8到1.5.13到1.5.16版本是换来换去,不小心点会出事故的。
server: port: 21004 context-path: / tomcat: basedir: file:.
如上,basedir先是从.换到file:.,又从file:.换成.,连兼容代码都木有。有木有想打死工程师?
前言
今天主要谈的话题,是平滑的上下线功能。所谓平滑,指的是发版无感知,不至于等到夜深人静的时候偷偷去搞。某些请求时间可以长点,但不能失败,尤其是对支付来说,想花钱花不出去是很让人苦恼的;花了钱买不到东西是很让人恼火的。整体来说,springcloud功能齐全,经过一段时间的踩坑后使用起来还是非常舒服的。
我们的微服务,大体集成了以下内容。
嗯,一个庞大的生态
问题
那么问题来了,springcloud到注册中心的注册是通过rest接口调用的。它不能像zookeeper那样,有问题节点反馈及时生效。也不能像redis那么快的去轮训,太娇贵怕轮坏了。如下图:
有三个要求:
1)servicea下线一台实例后,zuul网关的调用不能失败 2)serviceb下线一台实例后,servicea的feign调用不能失败 3)服务上线下线,eureka服务能够快速感知
说白了就一件事,怎样尽量缩短服务下线后zuul和其他被依赖服务的发现时间,并在这段时间内保证请求不失败。
解决时间问题
影响因子
1) eureka的两层缓存问题 (这是什么鬼)
eurekaserver默认有两个缓存,一个是readwritemap,另一个是readonlymap。有服务提供者注册服务或者维持心跳时时,会修改readwritemap。当有服务调用者查询服务实例列表时,默认会从readonlymap读取(这个在原生eureka可以配置,springcloud eureka中不能配置,一定会启用readonlymap读取),这样可以减少readwritemap读写锁的争用,增大吞吐量。eurekaserver定时把数据从readwritemap更新到readonlymap中
2) 心跳时间
服务提供者注册服务后,会定时心跳。这个根据服务提供者的eureka配置中的服务刷新时间决定。还有个配置是服务过期时间,这个配置在服务提供者配置但是在eurekaserver使用了,但是默认配置eurekaserver不会启用这个字段。需要配置好eurekaserver的扫描失效时间,才会启用eurekaserver的主动失效机制。在这个机制启用下:每个服务提供者会发送自己服务过期时间上去,eurekaserver会定时检查每个服务过期时间和上次心跳时间,如果在过期时间内没有收到过任何一次心跳,同时没有处于保护模式下,则会将这个实例从readwritemap中去掉
3)调用者服务从eureka拉列表的轮训间隔
4) ribbon缓存
解决方式
1) 禁用eureka的readonlymap缓存 (eureka端)
eureka.server.use-read-only-response-cache: false
2) 启用主动失效,并且每次主动失效检测间隔为3s (eureka端)
eureka.server.eviction-interval-timer-in-ms: 3000
像eureka.server.responsecacheupdateinvervalms和eureka.server.responsecacheautoexpirationinseconds在启用了主动失效后其实没什么用了。默认的180s真够把人给急疯的。
3) 服务过期时间 (服务提供方)
eureka.instance.lease-expiration-duration-in-seconds: 15
超过这个时间没有接收到心跳eurekaserver就会将这个实例剔除。eurekaserver一定要设置eureka.server.eviction-interval-timer-in-ms否则这个配置无效,这个配置一般为服务刷新时间配置的三倍。默认90s!
4) 服务刷新时间配置,每隔这个时间会主动心跳一次 (服务提供方)
eureka.instance.lease-renewal-interval-in-seconds: 5
默认30s
5) 拉服务列表时间间隔 (客户端)
eureka.client.registryfetchintervalseconds: 5
默认30s
6) ribbon刷新时间 (客户端)
ribbon.serverlistrefreshinterval: 5000
ribbon竟然也有缓存,默认30s
这些超时时间相互影响,竟然三个地方都需要配置,一不小心就会出现服务不下线,服务不上线的囧境。不得不说springcloud的这套默认参数简直就是在搞笑。
重试
那么一台服务器下线,最长的不可用时间是多少呢?(即请求会落到下线的服务器上,请求失败)。赶的巧的话,这个基本时间就是eureka.client.registryfetchintervalseconds+ribbon.serverlistrefreshinterval,大约是8秒的时间。如果算上服务端主动失效的时间,这个时间会增加到11秒。
如果你只有两个实例,极端情况下服务上线的发现时间也需要11秒,那就是22秒的时间。
理想情况下,在这11秒之间,请求是失败的。加入你的qps是1000,部署了四个节点,那么在11秒中失败的请求数量会是 1000 / 4 * 11 = 2750,这是不可接受的。所以我们要引入重试机制。
springcloud引入重试还是比较简单的。但不是配置一下就可以的,既然用了重试,那么就还需要控制超时。可以按照以下的步骤:
引入pom (千万别忘了哦)
<dependency> <groupid>org.springframework.retry</groupid> <artifactid>spring-retry</artifactid> </dependency>
加入配置
ribbon.oktoretryonalloperations:true #(是否所有操作都重试,若false则仅get请求重试) ribbon.maxautoretriesnextserver:3 #(重试负载均衡其他实例最大重试次数,不含首次实例) ribbon.maxautoretries:1 #(同一实例最大重试次数,不含首次调用) ribbon.readtimeout:30000 ribbon.connecttimeout:3000 ribbon.retryablestatuscodes:404,500,503 #(那些状态进行重试) spring.cloud.loadbalancer.retry.enable:true # (重试开关)
发布系统
ok,机制已经解释清楚,但是实践起来还是很繁杂的,让人焦躁。比如有一个服务有两个实例,我要一台一台的去发布,在发布第二台之前,起码要等上11秒。如果手速太快,那就是灾难。所以一个配套的发布系统是必要的。
首先可以通过rest请求去请求eureka,主动去隔离一台实例,多了这一步,可以减少至少3秒服务不可用的时间(还是比较划算的)。
然后通过打包工具打包,推包。依次上线替换。
市面上没有这样的持续集成哦你工具,那么发布系统就需要定制,这也是一部分工作量。
到此,仅仅是解决了springcloud微服务平滑上下线的功能,至于灰度,又是另外一个话题了。有条件的公司选择自研还是很明智的,不至于将功能拉低到如此的水平。
不过大体不用担心,你的公司能不能活下去,还是一个未知数。netflix都忍了,在做的各位能比它强大么?
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
上一篇: MYSQL基础语法的使用