马蜂窝 IM 系统架构的演化和升级
今天,越来越多的用户被马蜂窝持续积累的笔记、攻略、嗡嗡等优质的分享内容所吸引,在这里激发了去旅行的热情,同时也拉动了马蜂窝交易的增长。在帮助用户做出旅行决策、完成交易的过程中,im 系统起到了重要的作用。
im 系统为用户与商家建立了直接沟通的渠道,帮助用户解答购买旅行产品中的问题,既促成了订单交易,也帮用户打消了疑虑,促成用户旅行愿望的实现。伴随着业务的快速发展,几年间,马蜂窝 im 系统也经历了几次比较重要的架构演化和转型。
im 1.0 —— 初期阶段
初期为了支持业务快速上线,且当时版本流量较低,对并发要求不高,im 系统的技术架构主要以简单和可用为目的,实现的功能也很基础。
im 1.0 使用 php 开发,实现了 im 基本的用户/客服接入、消息收发、咨询列表管理功能。用户咨询时,会通过平均分配的策略分配给客服,记录用户和客服的关联关系。用户/客服发送消息时,通过调用消息转发模块,将消息投递到对方的 redis 阻塞队列里。收消息则通过 http 长连接调用消息轮询模块,有消息时即刻返回,没有消息则阻塞一段时间返回,这里阻塞的目的是降低轮询的间隔。消息收发模型如下图所示:
消息轮询模块优化
上图模型中消息轮询模块的长连接请求是通过 php-fpm 挂载在阻塞队列上,当该请求变多时,如果不能及时释放 php-fpm 进程,会对服务器性能消耗较大,负载很高。
为了解决这个问题,我们对消息轮询模块进行了优化,选用基于 openresty 框架,利用 lua 协程的方式来优化 php-fmp 长时间挂载的问题。lua 协程会通过对 nginx 转发的请求标记判断是否拦截网络请求,如果拦截,则会将阻塞操作交给 lua 协程来处理,及时释放 php-fmp,缓解对服务器性能的消耗。优化的处理流程见下图:
im 2.0 —— 需求定制阶段
伴随着业务的快速增长,im 系统在短期内面临着大量定制需求的增加,开发了许多新的业务模块。面对大量的用户咨询,客服的服务能力已经招架不住。因此,im 2.0 将重心放在提升业务功能体验上,比如在处理用户的咨询时,将从前单一的分配方式演变为采用平均、权重、排队等多种方式;为了提升客服的效率,客服的咨询回复也增加了可选配置,例如自动回复、faq 等。
以一个典型的用户咨询场景为例,当用户打开 app 或者网页时,会通过连接层建立长连接,之后在咨询入口发起咨询时,会携带着消息线索初始化消息链路,建立一条可复用、可检索的消息线;发送消息时,通过消息服务将消息存储到 db 中,同时会根据消息线检索当前咨询是否被分配到客服,调用分配服务的目的是为当前咨询完善客服信息;最后将客服信息更新到链路关系中。
这样,一条完整的消息链路就建立完毕,之后用户/客服发出的消息通过转发服务传输给对方,处理流程如下图所示:
im 3.0 —— 服务拆分阶段
业务量在不断积累,随着模块增加,im 系统的代码膨胀得很快。由于代码规范没有统一、接口职责不够单一、模块间耦合较多等种原因,改动一个需求很可能会影响到其它模块,使新需求的开发和维护成本都很高。
为了解决这种局面,im 系统必须要进行架构升级,首要任务就是服务的拆分。目前,经过拆分后的 im 系统整体分为 4 块大的服务,包括客服服务、用户服务、im 服务、数据服务,如下图所示:
-
客服服务:围绕提升客服效率和用户体验提供多种方式,如提供群组管理、成员管理、质检服务等来提升客服团队的运营和管理水平;通过分配服务、转接服务来使用户的接待效率更灵活高效;支持自动回复、faq、知识库服务等来提升客服咨询的回复效率等。
-
用户服务:分析用户行为,为用户做兴趣推荐及用户画像,以及统计用户对马蜂窝商家客服的满意度。
-
im 服务:支持单聊和群聊模式,提供实时消息通知、离线消息推送、历史消息漫游、联系人列表、文件上传与存储、消息内容风控检测等。
-
数据服务:通过采集用户咨询的来源入口、是否咨询下单、是否有客服接待、用户咨询以及客服回复的时间信息等,定义数据指标,通过数据分析进行离线数据运算,最终对外提供数据统计信息。主要的指标信息有 30 秒、1 分钟回复率、咨询人数、无应答次数、平均应答时间、咨询销售额、咨询转化率、推荐转化率、分时接待压力、值班情况、服务评分等。
用户状态流转
现有的 im 系统 中,用户咨询时一个完整的用户状态流转如下图所示:
用户点击咨询按钮触发事件,此时用户状态进入初始态。发送消息时,系统更改用户状态为待分配,通过调用分配服务分配了对应的客服后,用户状态更改为已分配、未解决。当客服解决了用户或者客服回复后用户长时间未说话,触发系统自动解决的操作,此时用户状态更改为已解决,一个咨询流程结束。
im 服务的重构
在服务拆分的过程中,我们需要考虑特定服务的通用性、可用性和降级策略,同时需要尽可能地降低服务间的依赖,避免由于单一服务不可用导致整体服务瘫痪的风险。在这期间,公司其它业务线对 im 服务的使用需求也越来越多,使用频次和量级也开始加大。初期阶段的 im 服务当连接量大时,只能通过修改代码实现水平扩容;新业务接入时,还需要在业务服务器上配置 openresty 环境及 lua 协程代码,业务接入非常不便,im 服务的通用性也很差。
考虑到以上问题,我们对 im 服务进行了全面重构,目标是将 im 服务抽取成独立的模块,不依赖其它业务,对外提供统一的集成和调用方式。考虑到 im 服务对并发处理高和损耗低的要求,选择了 go 语言来开发此模块,新的 im 服务设计如下图:
其中,比较重要的 proxy 层和 exchange 层提供了以下服务:
1. 路由规则,例如 ip-hash、轮询、最小连接数等,通过规则将客户端散列到不同的 channelmanager 实例上。
2. 对客户端接入的管理,接入后的连接信息会同步到 dispatchtable 模块,方便 dispatcher 进行检索。
3.channelmanager 与客户端间的通信协议,包括客户端请求建立连接、断线重连、主动断开、心跳、通知、收发消息、消息的 qos 等。
4. 对外提供单发、群发消息的 rest 接口。这里需要根据场景来决定是否使用,例如用户咨询客服的场景就需要通过这个接口下发消息,主要原因在以下 3 点:
-
发消息时会有创建消息线、分配管家等逻辑,这些逻辑目前是 php 实现,im 服务需要知道 php 的执行结果,一种方式是使用 go 重新实现,另外一种方式是通过 rest 接口调用 php 返回,这样会带来 im 服务和 php 业务过多的网络交互,影响性能。
-
转发消息时,channelmanager 多个实例间需要互相通信,例如 channelmanager1 上的用户 a 给 channelmanager2 上的客服 b 发消息,如果实例间无通信机制,消息无法转发。当要再扩展 channelmanager 实例时,新增实例需要和其它已存在实例分别建立通信,增加了系统扩展的复杂度。
-
如果客户端不支持 websocket 协议,作为降级方案的 http 长连接轮循只能用来收消息,发消息需要通过短连接来处理。其它场景不需要消息转发,只用来给 channelmanager 传输消息的场景,可通过 websocket 直接发送。
改造后的 im 服务调用流程
初始化消息线及分配客服过程由 php 业务完成。需要消息转发时,php 业务调用 dispatcher 服务的发消息接口,dispatcher 服务通过共享的 dispatcher table 数据,检索出接收者所在的 channelmanager 实例,将消息通过 rpc 的方式发送到实例上,channelmanager 通过 websocket 将消息推送给客户端。im 服务调用流程如下图所示:
当连接数超过当前 channelmanager 集群承载的上限时,只需扩展 channelmanager 实例,由 etcd 动态的通知到监听侧,从而做到平滑扩容。目前浏览器版本的 js-sdk 已经开发完毕,其它业务线通过接入文档,就能方便地集成 im 服务。
在 exchange 层的设计中,有 3 个问题需要考虑:
1. 多端消息同步
现在客户端有 pc 浏览器、windows 客户端、h5、ios/android,如果一个用户登录了多端,当有消息过来时,需要查找出这个用户的所有连接,当用户的某个端断线后,需要定位到这一个连接。
上面提到过,连接信息都是存储在 dispatchertable 模块中,因此 dispatchertable 模块要能根据用户信息快速检索出连接信息。dispatchertable 模块的设计用到了 redis 的 hash 存储,当客户端与 channelmanager 建立连接后,需要同步的元数据有 uid(用户信息)、uniquefield(唯一值,一个连接对应的唯一值)、wsid(连接标示符)、clientip(客户端 ip)、serverip(服务端 ip)、channel(渠道),对应的结构大致如下:
这样通过 key(uid) 能找到一个用户多个端的连接,通过 key+field 能定位到一条连接。连接信息的默认过期时间为 2 小时,目的是避免因客户端连接异常中断导致服务端没有捕获到,从而在 dispatchertable 中存储了一些过期数据。
2. 用户在线状态同步
比如一个用户先后和 4 个客服咨询过,那么这个用户会出现在 4 个客服的咨询列表里。当用户上线时,要保证 4 个客服看到用户都是在线状态。
要做到这一点有两种方案,一种是客服通过轮询获取用户的状态,但这样当用户在线状态没有变化时,会发起很多无效的请求;另外一种是用户上线时,给客服推送上线通知,这样会造成消息扩散,每一个咨询过的客服都需要扩散通知。我们最终采取的是第二种方式,在推送的过程中,只给在线的客服推送用户状态。
3. 消息的不丢失,不重复
为了避免消息丢失,对于采用长连接轮询方式的我们会在发起请求时,带上客户端已读消息的 id,由服务端计算出差值消息然后返回;使用 websocket 方式的,服务端会在推送给客户端消息后,等待客户端的 ack,如果客户端没有 ack,服务端会尝试多次推送。
这时就需要客户端根据消息 id 做消息重复的处理,避免客户端可能已收到消息,但是由于其它原因导致 ack 确认失败,触发重试,导致消息重复。
im 服务的消息流
上文提到过 im 服务需要支持多终端,同时在角色上又分为用户端和商家端,为了能让通知、消息在输出时根据域名、终端、角色动态输出差异化的内容,引入了 ddd (领域驱动设计)的建模方法来对消息进行处理,处理过程如下图所示:
总结和展望
伴随着马蜂窝「内容+交易」模式的不断深化,im 系统架构也经历着演化和升级的不同阶段,从初期粗旷无序的模式走向统一管理,逐渐规范、形成规模。
我们取得了一些进步,当然,还有更长的路要走。未来,结合公司业务的发展脚步和团队的技术能力,我们将不断进行 im 系统的优化。目前我们正在计划将消息轮询模块中的服务端代码用 go 替换,使其不再依赖 php 及 openresty 环境,实现更好地解耦;另外,我们将基于 tensorflow 实现向智慧客服的探索,通过训练数据模型、分析数据,进一步提升人工客服的解决效率,提升用户体验,更好地为业务赋能。
本文作者:马蜂窝电商平台 im 研发团队。
(马蜂窝技术原创内容,转载务必注明出处保存文末二维码图片,谢谢配合。)
上一篇: 请给出一个Scala RDD的HelloWorld例子
下一篇: 标签--基础标签