欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

作为数据库核心成员,如何让淘宝不卡顿?

程序员文章站 2022-04-01 18:54:50
简介:TDDL(Tabao Distributed Data Layer)是淘宝开源的一个用于访问数据库的中间件,集成了分库分表,主备,读写分离,权重调配,动态数据库配置等功能。本文以2007年TDDL初诞生时的视角,介绍TDDL是如何一步步设计成型的,希望能帮助同学们简单收获:常规数据库效率问题解决思路、TDDL框架设计基本思路以及分布式数据库设计思路等。时间倒转穿越回2007年年底一觉醒来,我还是照常去上班,走到西溪湿地附近,马路没有,高楼没有,有的是小山坡和金色的稻田。一番打听之后,才知道此时没有什么...
简介:TDDL(Tabao Distributed Data Layer)是淘宝开源的一个用于访问数据库的中间件,集成了分库分表,主备,读写分离,权重调配,动态数据库配置等功能。本文以2007年TDDL初诞生时的视角,介绍TDDL是如何一步步设计成型的,希望能帮助同学们简单收获:常规数据库效率问题解决思路、TDDL框架设计基本思路以及分布式数据库设计思路等。

作为数据库核心成员,如何让淘宝不卡顿?

时间倒转穿越回2007年年底

一觉醒来,我还是照常去上班,走到西溪湿地附近,马路没有,高楼没有,有的是小山坡和金色的稻田。一番打听之后,才知道此时没有什么西溪园区。没办法,硬着头皮去滨江上班,一刷卡,才发现我并不是我,我现在的身份是淘宝数据库团队的核心成员。

此时全国上下在迎接着奥运的到来,一片祥和。淘宝网成交额突破400亿,日活用户达1000万。工程师们都非常兴奋,磨刀霍霍。但是也遇到了棘手的问题。

一 分析当前的现状

1.1 现有业务背景

  • 淘宝网给中国市场提供了全新的购物形式,在互联网的大潮下,用户暴增,成交量暴增,公司持续飞速增长。
  • 截止2007年,淘宝网成交额突破400亿,日活用户达1000万。
  • 全天有1000万用户访问淘宝。而绝大多数用户都是在网上逛,什么也不买。

1.2 当前的问题

1.2.1 用户体验与反馈

用户普遍反馈逛淘宝卡顿,操作延迟特别明显。

1.2.2 分析核心原因

  • 大量的用户在浏览商品,并不下单。这个人数和场景的比例有20:1。
    • 说明:数据库模式事务,写操作会对表或者行加写锁,阻塞读操作。
  • 业务数据集中在一张表里,如user表。一张表里数据破几千万。查询一条数据需要好几秒(单表数据量太大)。
    • 说明:一张表数据提升,必然会导致检索变慢, 这是必然事实。不论如何加索引或者优化都无法解决的。
  • 所有表集中在一个库里,所有库集中在一个机器里。数据库集中在一台机器上,动不动就说硬盘不够了(单机单库)。
    • 说明:所有业务共用一份物理机器资源。机器存在瓶颈:磁盘和CPU不够用且后期拓展性不佳。

1.2.3 总结问题

  • 20:1读写比例场景。
  • 单表单库数据量太大。
  • 小型机与单机场景,抗不住当前规模。

作为数据库核心成员,如何让淘宝不卡顿?

二 我要做什么?

  • 如何满足当前每天1000万用户逛淘宝的需求,且用户体验好(最基本要求:响应快)。
  • 如何满足未来有上亿用户的访问,甚至是同时访问,且用户体验好(最基本要求:响应快)。

高筑墙,广积粮,积极做好准备。

提炼核心:

  • 提高数据库操作速度。
  • 同时能应对未来规模变化。

三 我能做什么?

为实现以上两大目标,我能做什么?

3.1 提高数据库操作速度,通用方法

提炼常见的通用方法:

sql优化

  • 排除语法问题,烂sql
  • 下推优化

下推的目的:提前过滤数据 -> 减少网络传输、并行计算。

  • 提前过滤数据
  • 小表驱动大表等

建立索引

  • 查询频率高的热点字段
  • 区分度高的(DISTINCT column_name)/COUNT(),以主键为榜样(1/COUNT())
  • 长度小
  • 尽量能覆盖常用查询字段
  • 注意索引失效的场景

分库分表

  • 垂直分库分表
  • 水平分库分表

读写分离

缓存的使用

等等。

3.2 如何应对未来的持续变化?

必须支持动态扩容。

必须走分布式化路线,百分百不动摇。

3.3 结合定位,分析自己能做的

3.3.1 分析我们的架构定位

(1)大前提

  • 我们要做通用型框架,不参与业务。
  • 从软件设计原则出发,开闭原则:对扩展开放,对修改关闭。

说明:大修改就意味着不稳定,因此:我们要做到尽可能少的修改原来的代码。在程序需要进行拓展的时候,不能去修改原有的代码,实现一个热插拔的效果。

(2)当前架构现状

淘宝网主要使用hibernate/ibatis传统框架:

作为数据库核心成员,如何让淘宝不卡顿?

(3)分析我们的架构定位

淘宝数据库团队当时使用映射框架(hibernate/ibatis)作为数据库交互入库,为了不让他们修改代码,那我们只能在ibatis/hibenate这类映射框架之下。

同时jdbc是与底层数据库交互的Java数据库连接驱动程序,是基础能力,我们要使用它,而不是改造它。

结论:我得把TDDL安插于ibatis/jdbc之间,于是有了第一张架构图:

作为数据库核心成员,如何让淘宝不卡顿?

3.4 总结,我们能做什么?

作为数据库核心成员,如何让淘宝不卡顿?

结合我们的目标,通用方法,大前提以及架构定位,分析下我们能做和不能做的。

不能做的:

  • 索引,因为这个是设计阶段,强业务相关。与大前提冲突:我们不参与业务。

能做的:

  • 语法优化
    • 排除sql问题
    • 下推优化
  • 分表分库(自动水平分表,水平分库)
    • 读写分离(读写分离/分布式化与动态扩容)

四 我们如何做?

4.1 语法优化

为达到语法优化的目的,我们需要具备什么能力?

简单来说:

  • 我们需要认识这个别人提交给我的sql。
  • 我能拆解sql。
  • 优化与重组这个sql。

作为数据库核心成员,如何让淘宝不卡顿?

专业点来说:语义分析能力。

  • sql解析
  • sql规则制定
  • sql优化
  • sql重组

作为数据库核心成员,如何让淘宝不卡顿?

因此:我们需要设计一个sql解析器,sql优化器。

4.1.1 解析器

解析器的核心是词法分析、语法语义分析,也就是说来了一条 select/update/insert/delete语句,你能认识它,而且你知道下一步该怎么处理,同时为后面的优化器打下基础。

核心:将sql解析为一棵语法树。

例:

SELECT id, member_id FROM wp_image WHERE member_id = ‘123’

作为数据库核心成员,如何让淘宝不卡顿?

sql语法树:

作为数据库核心成员,如何让淘宝不卡顿?

4.1.2 优化器

核心:

  • 在sql解析成sql语法树后,使用sql优化规则(1. 语法优化 2. 下推优化), 通过对树进行左旋,右旋,删除子树来对语法树进行重构sql语法树。
  • 将重构的语法树进行遍历得到优化后的sql。

(1)语法优化

  • 函数提前计算
a. id = 1 + 1  => id = 2
  • 判断永真/永假式
1 = 1 and id = 1 => id = 1
0 = 1 and id = 1 => 空结果
  • 合并范围
id > 1 or id < 5 => 永真式
id > 1 and id = 3 => id = 3
  • 类型处理
id = ‘1’  => id为数字类型,自动Long.valueof(1)
create=‘2015-02-14 12:12:12’ => create为timestamp类型,解析为时间类型

(2)下推优化

  • Where条件下推
select from (A) o where o.id = 1
=>
select from (A.query(id = 1))

说明:提前条件过滤,提前获取数据,减少后期计算/IO/网络成本。

  • JOIN中非join列的条件下推
A join B on A.id = B.id where A.name = 1 and B.title = 2
=> 
A.query(name = 1) join B.query(title = 2) on A.id = B.id

说明:提前过滤,减轻后期join计算成本,达到“小表驱动”的目的。

  • 等值条件的推导
A join B on A.id = B.id where A.id = 1 => B.id = 1
=> 
A join B.query(B.id=1) on A.id = B.id

说明:同理,提前过滤。

4.1.3 总结

  • sql解析器
    • 负责将sql语句化为sql语法树。
  • sql优化器
    • 负责将sql语法树利用sql优化规则,重构sql语法树。
    • 将sql语法树转化为sql语句。

作为数据库核心成员,如何让淘宝不卡顿?

4.2 分表分库

单库单表的问题:

几年前,业务简单,应用的数据比较少,表结构也不复杂。只有一个数据库,数据库中的表是一张完整的表。而到了今天,2007年了,业务复杂起来了,数据量爆增,单表数据破千万甚至上亿条,一条DML语句,死慢死慢的。这种情况下加索引已不再有显著的效果。

这个时候,数据库效率瓶颈不是靠加索引,sql优化能搞定的。

正确出路:分表分库,通过将表拆分,来降低单表数据量,进而提高数据库操作效率。

分表分为:

  • 垂直分表
  • 水平分表

分库分为:

  • 垂直分库
  • 水平分库

由于TDDL不参与业务,而垂直分库分表是强业务相关的,因此TDDL暂不参与垂直分库分表,只在水平分库分表方向上努力。

4.2.1 垂直分表

垂直拆分是将一张表垂直拆成多个表。往往是把常用的列独立成一张主表。不常用的列以及特别长的列拆分成另一张拓展表。
作为数据库核心成员,如何让淘宝不卡顿?

简单垂直分表举例
核心要素:

  • 冷热分离,把常用的列放在一个表,不常用的放在一个表。
  • 大字段列独立存放,如描述信息。
  • 关联关系的列紧密的放在一起。

它带来的提升是:

  • 为了避免IO争抢并减少锁表的几率,查看详情的用户与商品信息浏览互不影响。
  • 充分发挥热门数据的操作效率,商品信息的操作的高效率不会被商品描述的低效率所拖累。

4.2.2 水平分表

水平分表是在同一个数据库内,把同一个表的数据按一定规则拆到多个表中。

作为数据库核心成员,如何让淘宝不卡顿?

简单点的技巧:按照枚举类型区分。

作用总结:

  • 库内的水平分表,解决了单一表数据量过大的问题,分出来的小表中只包含一部分数据,从而使得单个表的数据量变小,提高检索性能。
  • 避免IO争抢并减少锁表的几率。

4.2.3 垂直分库

垂直分库是指按照业务将表进行分类,分布到不同的数据库上面,每个库可以放在不同的服务器上,它的核心理念是专库专用。
作为数据库核心成员,如何让淘宝不卡顿?

作用总结:

  • 解决业务层面的耦合,业务清晰。
  • 高并发场景下,垂直分库一定程度的提升IO、数据库连接数、降低单机硬件资源的瓶颈。
  • 能对不同业务的数据进行分级管理、维护、监控、扩展等。
  • 垂直分库通过将表按业务分类,然后分布在不同数据库,并且可以将这些数据库部署在不同服务器上,从而达到多个服务器共同分摊压力的效果,但是依然没有解决单表数据量过大的问题。

4.2.4 水平分库(TDDL 核心)

水平分库是把同一个表的数据按一定规则拆到不同的数据库中,每个库可以放在不同的服务器上。

作为数据库核心成员,如何让淘宝不卡顿?

作用总结:

  • 解决了单库单表数据量过大的问题,理论上解决了高并发的性能瓶颈。

水平分库核心要解决的问题:

  • 如何知道数据在哪个库里?- 路由问题
  • 结果合并
  • 全局唯一主键ID
  • 分布式事务(暂时不支持)

4.2.5 水平分库——问题解决

(1)自动路由算法

sql转发:在水平拆分后,数据被分散到多张表里。原来的一个sql需要拆解,进行转发路由。

例:

select * from tb1 where member_id in ('test1234', 'pavaretti17', 'abcd');
=>
select * from tb1 where member_id in ('test1234', 'pavaretti17', 'abcd');
select * from tb1 where member_id in ('abcd');

作为数据库核心成员,如何让淘宝不卡顿?

其中拆分和寻找的算法:怎么知道对应哪个表?即自动路由算法。常见的有:固定哈希算法和一致性哈希算法。

a)固定哈希算法

作为数据库核心成员,如何让淘宝不卡顿?

b)一致性哈希算法

一致性哈希算法在1997年由麻省理工学院提出,是一种特殊的哈希算法,目的是解决分布式缓存的问题。

一致性哈希算法的优势:

  • 极好的应对了服务器宕机的场景。
  • 很好的支持后期服务器扩容。
  • 在引入虚拟节点后:能很好的平衡各节点的数据分布。

由于一致性哈希算法的优势,此算法几乎是所有分布式场景下使用的方案,包括mysql的分布式、redis的分布式等。

作为数据库核心成员,如何让淘宝不卡顿?

(2) 结果合并

作为数据库核心成员,如何让淘宝不卡顿?

升华:引入fork-Join,提升操作速度(多线程并发重点场景,代码中也很常用哦)。

  • 任务拆分
  • 多路并行操作
  • 结果合并

作为数据库核心成员,如何让淘宝不卡顿?

(3)全局唯一主键

算法:基于数据库更新+内存分配。在数据库中维护一个ID,获取下一个ID时,会对数据库进行ID=ID+100 WHERE ID=XX,拿到100个ID后,在内存中进行分配。

  • 优势:简单高效。
  • 缺点:无法保证自增顺序。

例:

水平分库分表:一拆三场景。
主键分隔值:1000。
  • 表1新增一条数据,于是给表1分配1000个主键ID, 直到它用完。
  • 同理,表2、表3在新增数据时,也给它们分配1000个主键ID。直到它用完。
  • 当它们的1000个主键ID用完后,继续给它们分配1000个即可。
  • 重复下去,可保证各库表上的主键不重叠,唯一。

作为数据库核心成员,如何让淘宝不卡顿?

这种产生全局唯一id的方式相当有效,保证基本的全局唯一特性和高性能的同时,可以对生成id的数据库分机架分机房部署达到容灾的目的。

4.2.6 分表分库总结

作为数据库核心成员,如何让淘宝不卡顿?

架构师角度:

  • 优先考虑缓存降低对数据库的读操作。
  • 再考虑读写分离,降低数据库写操作。
  • 最后开始数据拆分,切分模式:首先垂直(纵向)拆分、再次水平拆分。
    • 首先考虑按照业务垂直拆分。
    • 再考虑水平拆分:先分库(设置数据路由规则,把数据分配到不同的库中)。
  • 最后再考虑分表,单表拆分到数据1000万以内。

个人开发角度:

  • 优先使用分表分库框架(直接使用)。
  • 优先考虑缓存降低对数据库的读操作。
  • 自己垂直分表。
  • 自己水平分表。

之所以先垂直拆分才水平拆分,是因为垂直拆分后数据业务清晰而且单一,更加方便指定水平的标准。

4.3 分布式化

分布式化是大潮,是大规模服务器最后都要走的一步。
作为数据库核心成员,如何让淘宝不卡顿?

4.3.1 读写分离

设计读写分离的数据库,有两大意义:

  • 主从只负责各自的写和读,极大程度的缓解X锁和S锁的竞争。
  • 从库可配置myisam引擎,提升查询性能以及节约系统开销。

说明:myisam查询效率高于默认的innodb效率。参考:myisam和innodb的区别。

作为数据库核心成员,如何让淘宝不卡顿?

核心问题:

  • 数据的备份同步问题:参考4.4.3。
  • 读写比例支持动态设置:结合业务,如淘宝可设置为20:1。

4.3.2 容灾

主备倒换:提高可靠性 > 应对个别数据库宕机场景,尤其主库宕机。
作为数据库核心成员,如何让淘宝不卡顿?

说明:DB2主库宕机后,自动将主库转为DB3。

核心问题:

  • 数据的备份同步问题:binlog 参考4.4.3。
  • 检测数据库的在线状态:心跳机制。

4.3.3 数据备份与同步

当只有单机或者一份数据时,一但数据库出问题,那么整体服务将不可用,而且更严重的是会造成数据损害丢失不可逆。

在读写分离与主备倒换的场景下,核心要解决的是多个数据库的数据同步与备份问题。

当前主流的是采用日志备份方式(redis也类似)。

实现原理:binlog日志备份。

作为数据库核心成员,如何让淘宝不卡顿?

说明:

  • 主库负责写操作,在数据变更时,会写入binlog,同时通知各从库。
  • 从库收到通知后,IO线程会主动过来读取主库的binlog,并写入自己的log。
  • 写完从库log后,通知sql线程,sql线程读取自己的日志,写入从库。

4.3.4 动态扩容

动态扩容的意义在于:随着后期业务量增大,数据库个数可以通过增多的方式来应对,而相对的改造代价很小。

扩容前:

作为数据库核心成员,如何让淘宝不卡顿?

扩容后:
作为数据库核心成员,如何让淘宝不卡顿?

核心内容:

  • 在添加新库时
    • 注册机器与库
    • 路由算法调整:固定哈希算法-调整模数/一致性哈希算法天然支持扩容
  • 可选的权重调整
    • 修改权重,数据插入偏向于新库5。
    • 在各库数量平衡时,触发修改回原来平衡的权重,以保证后续的均衡分配。

五 架构成型

sql流向

下图介绍sql从流入TDD到流入数据库,期间TDDL各模块对Sql的处理。

作为数据库核心成员,如何让淘宝不卡顿?

架构图

作为数据库核心成员,如何让淘宝不卡顿?

下图介绍了TDDL三层的位置以及作用。
作为数据库核心成员,如何让淘宝不卡顿?

核心能力图

TDDL 核心能力,核心组建示意图,其中标出了各模块核心要解决功能,核心算法等。

作为数据库核心成员,如何让淘宝不卡顿?

参考

TDDL 官方文档
http://mw.alibaba-inc.com/products/tddl/_book/
TDD产品原理介绍
http://gitlab.alibaba-inc.com/middleware/tddl5-wiki/raw/master/docs/Tddl_Intro.ppt
TDDL(07-10年)初始版本介绍
https://wenku.baidu.com/view/9cb630ab7f1922791788e825.html
阿里云SQL调优指南
https://help.aliyun.com/document_detail/144293.html
一致性哈希算法原理
https://www.cnblogs.com/lpfuture/p/5796398.html
TDDL初期源码(码云)
https://gitee.com/justwe9891/TDDL
MyISAM与InnoDB 的区别(9个不同点)
https://blog.csdn.net/qq_35642036/article/details/82820178

原文链接:https://developer.aliyun.com/article/773227?

版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

本文地址:https://blog.csdn.net/alitech2017/article/details/108775987