mysql优化之分区
mysql分区类型
日常开发中我们经常会遇到大表的情况,所谓的大表是指存储了百万级乃至千万级条记录的表。这样的表过于庞大,导致在查询和插入的时候耗时太长,性能低下,如果涉及联合查询的情况,性能会更加糟糕。分表和表分区的目的就是减少数据库的负担,提高数据库的效率,通常点来讲就是提高表的增删改查效率。
分区,partition,分区是将数据分段划分在多个位置存放,可以是同一块磁盘也可以在不同的机器。分区后,表面上还是一张表,但数据散列到多个位置了。app读写的时候操作的还是大表名字,db自动去组织分区的数据。
-- 查看是否支持分区 show variables like "%partition%"; --explain partitions查看用的哪个分区的数据 explain partitions select test_partition_list.schoolid from test_partition_list where test_partition_list.schoolid = 2
tip:分区与存储引擎无关,是mysql逻辑层完成的。
mysql分区类型有:
- list分区:基于枚举出的值列表分区;
- range分区:基于给定的一个连续范围,把数据分配到不同的分区;
- hash分区:基于给定的分区个数,把数据分配到不同的分区;
- key分区:类似hash分区
无论哪种mysql分区类型,要么分区表上没有主键/唯一键 要么分区表的主键/唯一键必须包含分区键 ,不能使用主键/唯一键字段之外的其他字段分区
list分区:
按照列表值分区(in (值列表)
--表上的每一个唯一性索引必须用于分区表的表达式上(其中包括主键索引);言外之意就是如果有多个字段要建立唯一性索引可以:primary key ( `id`, `schoolid` )或者 unique key (`id`, `schoolid` )
1 create table `test`.`test_partition_list` ( 2 `id` int ( 11 ) not null, 3 `name` varchar ( 255 ) not null, 4 `age` int ( 3 ) not null, 5 `schoolid` int ( 11 ) not null, 6 primary key ( `id`, `schoolid` ), 7 index `name` ( `name` ) using btree 8 ) engine = innodb character 9 set = utf8 collate = utf8_unicode_ci partition by list ( schoolid ) ( 10 partition `p0`values in ( 1, 5, 9, 10, 12, 15 ), 11 partition `p1`values in ( 2, 4, 6, 8, 13, 11 ), 12 partition `p2`values in ( 3, 7, 14, 16, 18 ), 13 partition `p3`values in ( 19, 21, 23, 25, 27 ), 14 partition `p4`values in ( 20, 22, 24, 26, 28 ) 15 );
对于不同的存储引擎,分区后生成的文件也不一样的;myisam是这样的:
innodb是这样的:
range分区:
条件运算符(less than)
1 create table rc1 ( 2 a int, 3 b int, 4 primary key (a,b) 5 ) 6 partition by range columns ( a,b ) ( 7 partition p0 values less than (10,5), 8 partition p1 values less than (20,15), 9 partition p2 values less than (30,25), 10 partition p3 values less than (40,30), 11 partition p4 values less than (50,40), 12 partition p5 values less than (maxvalue,maxvalue) 14 );
hash分区:
主要用来分散热点读 确保数据在预先确定个数的分区中尽可能平均分布
对一个表执行hash分区时候 mysql会对分区键应用一个散列函数 确定数据应当放在n个分区中的哪个分区中
支持两种hash分区:常规hash分区 线性hash分区(linear hash分区)
create table emp ( id int not null, ename varchar(30), hired date not null default '1970-01-01', separated date not null default '9999-12-31', job varchar(30) not null, store_id int not null )partition by hash (store_id) partitions 4;
分区按照mod(store_id,4) 取模运算,分区名p0-3
常规hash会出现的问题:如果增加分区或者合并分区的时候 取模算法需要改变 所有数据需要重新计算 为了降低分区管理的代价 提供线性hash分区 分区函数是一个线性2的幂运算
key分区
分成5个区,就是对5取余。将id对5取余。
注意:key,hash都是取余算法,要求分区参数(括号里的),返回的数据必须为整数。
分区中的null值
mysql数据库允许对null值做分区,但是处理的方法和oracle数据库完全不同。mysql数据库的分区总是把null值视为小于任何一个非null值,这和mysql数据库中对于null的order by的排序是一样的。因此对于不同的分区类型,mysql数据库对于null值的处理是不一样的。
对于range分区,如果对于分区列插入了null值,则mysql数据库会将该值放入最左边的分区(这和oracle数据库完全不同,oracle数据库会将null值放入maxvalue分区中)。例如:
create table t_range( a int, b int )engine=innodb partition by range(b)( partition p0 values less than(10), partition p1 values less than(20), partition p2 values less than maxvalue );
接着往表中插入(1,1)和(1,null)两条数据,并观察每个分区中记录的数量:
insert into t_range select 1,1; insert into t_range select 1,null; select * from t_range\g; select table_name,partition_name,table_rows from information_schema.partitions where table_schema=database() and table_name='t_range'\g;
range分区下,null值会放入最左边的分区中。另外需要注意的是,如果删除p0这个分区,你删除的是小于10的记录,并且还有null值的记录,这点非常重要。
list分区下要使用null值,则必须显式地指出哪个分区中放入null值,否则会报错,如:
create table t_list( a int, b int)engine=innodb partition by list(b)( partition p0 values in (1,3,5,7,9), partition p1 values in (0,2,4,6,8) ); insert into t_list select 1,null; error 1526(hy000):table has no partition for value null
若p0分区允许null值,则插入不会报错:
create table t_list( a int, b int)engine=innodb partition by list(b)( partition p0 values in (1,3,5,7,9,null), partition p1 values in (0,2,4,6,8) ); insert into t_list select 1,null; select table_name,partition_name,table_rows from information_schema.partitions where table_schema=database() and table_name='t_list';
hash和key分区对于null的处理方式,和range分区、list分区不一样。任何分区函数都会将含有null值的记录返回为0。如:
create table t_hash( a int, b int)engine=innodb partition by hash(b) partitions 4; insert into t_hash select 1,0; insert into t_hash select 1,null; select table_name,partition_name,table_rows from information_schema.partitions where table_schema=database() and table_name='t_hash';
***************************1.row***************************
table_name:t_hash
partition_name:p0
table_rows:2
分区管理
删除分区:
- 在key和hash领域删除分区不会造成数据丢失,而是把数据正和到剩余分区中;
- 在list和range领域删除分区后,会造成数据丢失。
求余方式(key / hash)
-- 求余方式删除分区的语法 alter table 表名 coalesce partition 数量
范围方式(list / range)
-- 范围方式 alter table 表名 drop partition 分区表名称
-
分区和性能
常听到开发人员说“对表做个分区,然后数据库的查询就会快了”。但是这是真的吗?实际中可能你根本感觉不到查询速度的提升,甚至是查询速度急剧的下降。因此,在合理使用分区之前,必须了解分区的使用环境。
数据库的应用分为两类:
- 一类是oltp(在线事务处理),如博客、电子商务、网络游戏等;
- 一类是olap(在线分析处理),如数据仓库、数据集市。
在一个实际的应用环境中,可能既有oltp的应用,也有olap的应用。如网络游戏中,玩家操作的游戏数据库应用就是oltp的,但是游戏厂商可能需要对游戏产生的日志进行分析,通过分析得到的结果来更好地服务于游戏、预测玩家的行为等,而这却是olap的应用。
对于olap的应用,分区的确可以很好地提高查询的性能,因为olap应用的大多数查询需要频繁地扫描一张很大的表。假设有一张1亿行的表,其中有一个时间戳属性列。你的查询需要从这张表中获取一年的数据。如果按时间戳进行分区,则只需要扫描相应的分区即可。
对于oltp的应用,分区应该非常小心。在这种应用下,不可能会获取一张大表中10%的数据,大部分都是通过索引返回几条记录即可。而根据b+树索引的原理可知,对于一张大表,一般的b+树需要2~3次的磁盘io(到现在我都没看到过4层的b+树索引)。因此b+树可以很好地完成操作,不需要分区的帮助,并且设计不好的分区会带来严重的性能问题。
很多开发团队会认为含有1000万行的表是一张非常巨大的表,所以他们往往会选择采用分区,如对主键做10个hash的分区,这样每个分区就只有100万行的数据了,因此查询应该变得更快了,如select * from table where pk=@pk。但是有没有考虑过这样一个问题:100万行和1000万行的数据本身构成的b+树的层次都是一样的,可能都是2层?那么上述走主键分区的索引并不会带来性能的提高。是的,即使1000万行的b+树的高度是3,100万行的b+树的高度是2,那么上述走主键分区的索引可以避免1次io,从而提高查询的效率。嗯,这没问题,但是这张表只有主键索引,而没有任何其他的列需要查询?如果还有类似如下的语句sql:select * from table where key=@key,这时对于key的查询需要扫描所有的10个分区,即使每个分区的查询开销为2次io,则一共需要20次io。而对于原来单表的设计,对于key的查询还是2~3次io。
如下表profile,根据主键id进行了hash分区,hash分区的数量为10,表profile有接近1000万行的数据:
create table 'profile'( 'id' int(11) not null auto_increment, 'nickname' varchar(20) not null default'', 'password' varchar(32) not null default'', 'sex' char(1)not null default'', 'rdate' date not null default '0000-00-00', primary key('id'), key 'nickname' ('nickname') )engine=innodb partition by hash(id) partitions 10; select count(nickname)from profile; count(1):9999248
因为是根据hash分区的,因此每个区分的记录数大致是相同的,即数据分布比较均匀:
select table_name,partition_name,table_rows from information_schema.partitions where table_schema=database() and table_name='profile';
注意:即使是根据自增长主键进行的hash分区,也不能保证分区数据的均匀。因为插入的自增长id并非总是连续的,如果该主键值因为某种原因被回滚了,则该值将不会再次被自动使用。
如果进行主键的查询,可以发现分区的确是有意义的:
explain partitions select * from profile where id=1\g;
可以发现只寻找了p1分区。
但是对于表profile中nickname列索引的查询,explain partitions则会得到如下的结果:
explain partitions select * from profile where nickname='david'\g;
可以看到,mysql数据库会搜索所有分区,因此查询速度会慢很多,比较上述的语句:
select * from profile where nickname='david'\g;
上述简单的索引查找语句竟然需要1.05秒,这显然是因为搜索所有分区的关系,实际的io执行了20~30次,在未分区的同样结构和大小的表上执行上述sql语句,只需要0.26秒。
因此对于使用innodb存储引擎作为oltp应用的表,在使用分区时应该十分小心,设计时要确认数据的访问模式,否则在oltp应用下分区可能不仅不会带来查询速度的提高,反而可能会使你的应用执行得更慢。