从0到1搭建后端架构的演进(MVC,服务拆分,微服务,领域驱动)
产品是一款服务于人力资源的saas在线服务,面向hr有web android/ios 小程序多个客户端
后端采用restful风格api来提供服务。主要使用python语言,方便快速迭代。
架构的演进经历了4个大的阶段:
一、mvc
项目刚开始的时候,后端同事不超过5个,这个阶段主要的工作是实现产品的原型,没有太多的考虑架构
使用django来快速实现功能,db的表结构设计好之后,抽象出功能view
由于产品设计也很不完善,后端需要很多的预留设计,避免产品逻辑的变更带来整个表结构的变动
在这个阶段代码上最重要的是确定适合团队的代码规范,代码检查规则。
整体上架构如上图
- nginx负责负载均衡,分发流量到多个django服务
- django处理逻辑
- 异步任务就交给celery
- 数据量比较大的地方使用redis做缓存
- 同时还有实时消息通知的需要使用了nginx push module
问题与优化方式:
- django并发性能差
- 使用uwsgi master+worker 配合 gevent 携程支持高并发redis连接数过多
- 使用redis-py自带的连接池来实现连接复用mysql连接数过多
- 使用djorm-ext-pool(https://github.com/djangonauts/djorm-ext-pool)连接池复用连接celery配置gevent支持并发任务
随着开发的功能越来越多,django下的app也越来越多,这就带了发布上的不方便,每次发布版本都需要重启所有的django服务,如果发布遇到问题,只能加班解决了。而且单个django工程下的代码量也越来越多,不好维护。
二、服务拆分
随着后端团队的壮大,分给每个同事的需求也越来越细
如果继续在一个工程里面开发所有的代码,维护起来的代价太高
而我们的上一个架构中在django里面已经按模块划分了一个个app
app内高类聚,app之间低耦合,这就为服务的拆分带来了便利。
拆分的过程没有遇到太大的问题,初期的拆分只是代码的分离
把公用的代码抽离出来实现一个公用的python库,数据库,redis还是共用,随着负载的增加,数据库也做了多实例。
如上图,服务之间尽量避免相互调用,需要交互的地方采用http请求的方式,内网的调用使用hosts指向内网地址。
问题与优化方式:
- nginx push module由于长时间没有维护,长连接最大数量不够,
- 使用tornado + zeromq实现了tormq(https://github.com/zhu327/tormq)服务来支撑消息通知
- 服务之间的调用采用http的方式,并且要求有依赖的服务主机配置hosts指向被调用的地址,这样带来的维护上的不方便。
- 以及在调用链的过程中没有重试,错误处理,限流等等的策略,导致服务可用性差。
- 随着业务拆分,继续使用nginx维护配置非常麻烦,经常因为修改nginx的配置引发调用错误。
- 每一个服务都有一个完整的认证过程,认证又依赖于用户中心的数据库,修改认证时需要重新发布多个服务。
三、微服务架构
- 首先是在接入层引入了基于openresty的kong api gateway,定制实现了认证,限流等插件。
- 在接入层承接并剥离了应用层公共的认证,限流等功能。
- 在发布新的服务时,发布脚本中调用kong admin api注册服务地址到kong,并加载api需要使用插件。
为了解决相互调用的问题,维护了一个基于gevent+msgpack的rpc服务框架doge,借助于etcd做服务治理,并在rpc客户端实现了限流,高可用,负载均衡这些功能。
- 在这个阶段最难的技术选型,开源的api网关大多用golang与openresty(lua)实现,为了应对我们业务的需要还要做定制。
- 前期花了1个月时间学习openresty与golang,并使用openresty实现了一个短网址服务shorturl用在业务中。
- 最终选择kong是基于lua发布的便利性,kong的开箱即用以及插件开发比较容易。
- 性能的考量倒不是最重要的,为了支撑更多的并发,还使用了云平台提供的lb服务分发流量到2台kong服务器组成的集群。
- 集群之间自动同步配置。
饿了么维护一个纯python实现的thrift协议框架thriftpy,并提供很多配套的工具, 如果团队足够大,这一套rpc方案其实是合适的,但是我们的团队人手不足,水平参差不齐,很难推广这一整套学习成本高昂的方案。
最终我们开发了类duboo的rpc框架doge,代码主要参考了weibo开源的motan。
四、领域驱动设计
- 在这一架构中我们尝试从应用服务中抽离出数据服务层
- 每一个数据服务包含一个或多个界限上下文,界限上下文类只有一个聚合根来暴露出rpc调用的方法。
- 数据服务不依赖于应用服务,应用服务可以依赖多个数据服务。
- 有了数据服务层,应用就解耦了相互之间的依赖,高层服务只依赖于底层服务。
在我离职时领域驱动设计还在学习设计阶段,还没有落地,但是我相信前公司的后端架构一定会往这个方向继续演进。
service mesh这种新一代的微服务架构正在成为主流,虽然现在的工作与微服务无关了,但是也还会继续关注学习。
架构的设计,技术的选型,不能完全按照流行的技术走,最终还是服务于产品,服务于客户的需求。设计过程中由于团队,人员的结构问题,有很多的妥协之处,如何在妥协中找到最优解才是最大的挑战,更多相关问题的讨论,请大家持续关注!
上一篇: domain相关域的应用