Percona-Toolkit 之 pt-archiver 总结
pt-archiver - archive rows from a mysql table into another table or a file.
pt-archiver nibbles records from a mysql table. the
--source
and--dest
arguments use dsn syntax; if copy is yes,--dest
defaults to the key's value from--source
.
pt-archiver是percona-toolkit工具集中的一个组件,是一个主要用于对mysql表数据进行归档和清除工具。它可以将数据归档到另一张表或者是一个文件中。pt-archiver在清除表数据的过程中并不会影响oltp事务的查询性能。对于数据的归档,它可以归档到另一台服务器上的另一张表,也可归档到一个文件中,文件可以用load data infile
进行数据装载,这个功能其实就类似是表历史数据的增量删除。
本文是关于之前有关pt-archiver工具使用的学习笔记进行重新整理,使用最新版本的工具同时也进行原理知识的梳理。
关于获取和安装percona-toolkit工具集可以参考我另一篇博文:percona-toolkit 之 pt-online-schema-change 总结中的安装部分。
基本说明
pt-archiver [options] --source dsn --where where
常用选项(options)
--analyze 指定工具完成数据归档后对表执行'analyze table'操作。指定方法如'--analyze=ds',s代表源端表,d代表目标端表,也可以单独指定。 --ask-pass 命令行提示密码输入,保护密码安全,前提需安装模块perl-termreadkey。 --buffer 指定缓冲区数据刷新到选项'--file'指定的文件并且在提交时刷新。 只有当事务提交时禁用自动刷新到'--file'指定的文件和刷新文件到磁盘,这意味着文件是被操作系统块进行刷新,因此在事务进行提交之前有一些数据隐式刷新到磁盘。默认是每一行操作后进行文件刷新到磁盘。 --bulk-delete 指定单个语句删除chunk的方式来批量删除行,会隐式执行选项'--commit-each'。 使用单个delete语句删除每个chunk对应的表行,通常的做法是通过主键进行逐行的删除,批量删除在速度上会有很大的提升,但如果有复杂的'where'条件就可能会更慢。 --[no]bulk-delete-limit 默认值:yes 指定添加选项'--bulk-delete'和'--limit'到进行归档的语句中。 --bulk-insert 使用load data local infile的方法,通过批量插入chunk的方式来插入行(隐式指定选项'--bulk-delete'和'--commit-each') 而不是通过逐行单独插入的方式进行,它比单行执行insert语句插入的速度要快。通过隐式创建临时表来存储需要批量插入的行(chunk),而不是直接进行批量插入操作,当临时表中完成每个chunk之后再进行统一数据加载。为了保证数据的安全性,该选项会强制使用选项'--bulk-delete',这样能够有效保证删除是在插入完全成功之后进行的。 --channel 指定当主从复制环境是多源复制时需要进行归档哪个主库的数据,适用于多源复制中多个主库对应一个从库的情形。 --charset,-a 指定连接字符集。 --[no]check-charset 默认值:yes 指定检查确保数据库连接时字符集和表字符集相同。 --[no]check-columns 默认值:yes 指定检查确保选项'--source'指定的源端表和'--dest'指定的目标表具有相同的字段。 不检查字段在表的排序和字段类型,只检查字段是否在源端表和目标表当中都存在,如果有不相同的字段差异,则工具报错退出。如果需要禁用该检查,则指定'--no-check-columns'。 --check-slave-lag 指定主从复制延迟大于选项'--max-lag'指定的值之后暂停归档操作。默认情况下,工具会检查所有的从库,但该选项只作用于指定的从库(通过dsn连接方式)。 --check-interval 默认值:1s 如果同时指定了选项'--check-slave-lag',则该选项指定的时间为工具发现主从复制延迟时暂停的时间。每进行操作100行时进行一次检查。 --columns,-c 指定需要归档的表字段,如有多个则用','(逗号)隔开。 --commit-each 指定按每次获取和归档的行数进行提交,该选项会禁用选项'--txn-size'。 在每次获取表数据并进行归档之后,在获取下一次数据和选项'--sleep'指定的休眠时间之前,进行事务提交和刷新选项'--file'指定的文件,通过选项'--limit'控制事务的大小。 --host,-h 指定连接的数据库ip地址。 --port,-p 指定连接的数据库port端口。 --user,-u 指定连接的数据库用户。 --password,-p 指定连接的数据库用户密码。 --socket,-s 指定使用socket文件连接。 --databases,-d 指定连接的数据库 --source 指定需要进行归档操作的表,该选项是必须指定的选项,使用dsn方式表示。 --dest 指定要归档到的目标端表,使用dsn方式表示。 如果该选项没有指定的话,则默认与选项'--source'指定源端表为相同表。 --where 指定通过where条件语句指定需要归档的数据,该选项是必须指定的选项。不需要加上'where'关键字,如果确实不需要where条件进行限制,则指定'--where 1=1'。 --file 指定表数据需要归档到的文件。使用类似mysql date_format()格式化命名方式。 文件内容与mysql中select into outfile语句使用相同的格式,文件命名选项如下所示: ' %y:年,4位数(year, numeric, four digits) %m:月,2位数(month, numeric (01..12)) %d:日,2位数(day of the month, numeric (01..31)) %h:小时(hour (00..23)) %i:分钟(minutes, numeric (00..59)) %s:秒(seconds (00..59)) %d:数据库名(database name) %t:表名(table name) 例如:--file '/var/log/archive/%y-%m-%d-%d.%t' ' --output-format 指定选项'--file'文件内容输出的格式。 默认不指定该选项是以制表符进行字段的分隔符,如果指定该选项,则使用','(逗号)作为字段分隔符,使用'"'(双引号)将字段括起。用法示例:'--output-format=dump'。 --for-update 指定为每次归档执行的select语句添加for update子句。 --share-lock 指定为每次归档执行的select语句添加lock in share mode子句。 --header 指定在文件中第一行写入字段名称作为标题。 --ignore 指定为insert语句添加ignore选项。 --limit 默认值:1 指定每条语句获取表和归档表的行数。 --local 指定不将optimize和analyze语句写入binlog。 --max-lag 默认值:1s 指定允许主从复制延迟时长的最大值,单位秒。如果在每次获取行数据之后主从延迟超过指定的值,则归档操作将暂停执行,暂停休眠时间为选项'--check-interval'指定的值。待休眠时间结束之后再次检查主从延迟时长,检查方法是通过从库查询的'seconds_behind_master'值来确定。如果主从复制延迟一直大于该参数指定值或者从库停止复制,则操作将一直等待直到从库重新启动并且延迟小于该参数指定值。 --no-delete 指定不删除已被归档的表数据。 --optimize 指定工具完成数据归档后对表执行'optimize table'操作。指定方法如'--analyze=ds',s代表源端表,d代表目标端表,也可以单独指定。 --primary-key-only 指定只归档主键字段,是选项'--columns=主键'的简写。 如果工具归档的操作是进行delete清除时最有效,因为只需读取主键一个字段而无需读取行所有字段。 --progress 指定每多少行打印进度信息,打印当前时间,已用时间以及多少行进行归档。 --purge 指定执行的清除操作而不是归档操作。允许忽略选项'--dest'和'--file'进行操作,如果只是清除操作可以结合选项'--primary-key-only'会更高效。 --quiet,-q 指定工具静默执行,不输出任何的执行信息。 --replace 指定写入选项'--dest'指定目标端表时改写insert语句为replace语句。 --retries 默认值:1 指定归档操作遇到死锁或超时的重试次数。当重试次数超过该选项指定的值时,工具将报错退出。 --run-time 指定工具归档操作在退出之前需要运行的时间。允许的时间后缀名为s=秒,m=分,h=小时,d=天,如果没指定,默认为s。 --[no]safe-auto-increment 默认值:yes 指定不使用自增列(auto_increment)最大值对应的行进行归档。 该选项在进行归档清除时会额外添加一条where子句以防止工具删除单列升序字段具有的具有auto_increment属性最大值的数据行,为了在数据库重启之后还能使用到auto_increment对应的值,但这会引起无法归档或清除字段对应最大值的行。 --set-vars 默认: wait_timeout=10000 innodb_lock_wait_timeout=1 lock_wait_timeout=60 工具归档时指定参数值,如有多个用','(逗号)分隔。如'--set-vars=wait_timeout=5000'。 --skip-foreign-key-checks 指定使用语句set foreign_key_checks = 0禁用外键检查。 --sleep 指定工具在通过select语句获取归档数据需要休眠的时间,默认值是不进行休眠。在休眠之前事务并不会提交,并且选项'--file'指定的文件不会被刷新。如果指定选项'--commit-each',则在休眠之前会进行事务提交和文件刷新。 --statistics 指定工具收集并打印操作的时间统计信息。 统计信息示例如下: ' started at 2008-07-18t07:18:53, ended at 2008-07-18t07:18:53 source: d=db,t=table select 4 insert 4 delete 4 action count time pct commit 10 0.1079 88.27 select 5 0.0047 3.87 deleting 4 0.0028 2.29 inserting 4 0.0028 2.28 other 0 0.0040 3.29 ' --txn-size 默认:1 指定每个事务处理的行数。如果是0则禁用事务功能。 --version 显示工具的版本并退出。 --[no]version-check 默认值:yes 检查percona toolkit、mysql和其他程序的最新版本。 --why-quit 指定工具打印当非因完成归档行数退出的原因。 在执行一个自动归档任务时该选项与选项'--run-time'一起使用非常方便,这样可以确定归档任务是否在指定的时间内完成。如果同时指定了选项'--statistics',则会打印所有退出的原因。
dsn选项(dsn)
可以使用dsn方式来连接数据库,dsn选项为key=value
方式,在等号的两侧不能有空格出现,并且区分大小写,多个选项之前以','(逗号)隔开,主要选项如下:
-
a
归档操作是在哪个库下进行的,相当于use
操作。 -
a
指定默认字符集。 -
b
当值为true
时,禁止sql_log_bin
,相当于sql_log_bin = 0
。 -
d
指定包含需要归档表的数据库。 -
h
指定连接的主机。 -
u
指定连接的用户。 -
p
指定连接需要的密码。 -
p
指定连接的端口。 -
s
指定连接的socket文件。 -
t
指定需要归档的表。 -
i
指定需要使用的索引。
选项用法说明
- 工具至少需指定选项
--dest
、--file
或--purge
其中之一; - 选项
--ignore
和--replace
是互斥的; - 选项
--txn-size
和--commit-each
是互斥的; - 选项
--share-lock
和--for-update
是互斥的; -
--analyze
和--optimize
是互斥的。
用法示例
环境与数据准备
mysql:5.7.24 192.168.58.3:3306
percona server:192.168.58.3:3308
本文基于mysql官方示例数据库employee:example databases进行测试。
本次测试是基于employees表以及新建的employees_ptarc表。
- 创建测试表employees_ptarc
mysql admin@192.168.58.3:employees> show create table employees_ptarc; +-----------------+-----------------------------------------+ | table | create table | +-----------------+-----------------------------------------+ | employees_ptarc | create table `employees_ptarc` ( | | | `id` int(11) not null auto_increment, | | | `v_int` int(11) default null, | | | `v_string` varchar(50) default null, | | | `s_string` char(20) not null, | | | primary key (`id`) | | | ) engine=innodb default charset=utf8 | +-----------------+-----------------------------------------+ 1 row in set time: 0.019s
- 创建存储过程i_employees_ptarc插入测试数据
delimiter $$ create procedure i_employees_ptarc (in row_num int) begin declare i int default 0 ; while i < row_num do insert into employees_ptarc (v_int, v_string, s_string) values ( floor(1 + rand() * 1000000), substring( md5(rand()), 1, floor(1 + rand() * 20) ), substring(md5(rand()), 1, 20) ) ; set i = i + 1 ; end while ; end$$ delimiter ; mysql admin@192.168.58.3:employees> call i_employees_ptarc(200000); query ok, 1 row affected time: 697.054s
- 测试表employees_ptarc基本信息
mysql admin@192.168.58.3:employees> select min(id),max(id) from employees_ptarc; +---------+---------+ | min(id) | max(id) | +---------+---------+ | 1 | 200000 | +---------+---------+ 1 row in set time: 0.025s mysql admin@192.168.58.3:employees> select count(*) from employees_ptarc; +----------+ | count(*) | +----------+ | 200000 | +----------+ 1 row in set time: 0.064s mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc'; +----------------+ | auto_increment | +----------------+ | 200001 | +----------------+ 1 row in set time: 0.029s
表归档到表(逐行进行)
- 归档表数据,但不删除源端表已归档数据
-- 需要归档的数据量 mysql admin@192.168.58.3:employees> select count(*) from employees where first_name = 'anneke'; +----------+ | count(*) | +----------+ | 225 | +----------+ 1 row in set time: 0.025s -- 执行归档操作 # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees,a=utf8 --dest h=192.168.58.3,p=3308,u=admin,d=test,t=employees_arc,a=utf8 --charset=utf8 --where 'first_name = 'anneke'' --progress 50 --txn-size=1000 --statistics --no-delete --ask-pass enter password: enter password: dbd::mysql::db selectrow_hashref failed: table 'test.employees_arc' doesn't exist [for statement "show create table `test`.`employees_arc`"] at /usr/bin/pt-archiver line 1923, <stdin> line 2.
通过报错信息可以看出目标端表不存在,先创建目标端表,与源端表结构一致,再进行归档操作。
-- 创建目标端表 percona admin@192.168.58.3:test> show create table employees_arc; +---------------+----------------------------------------------------+ | table | create table | +---------------+----------------------------------------------------+ | employees_arc | create table `employees_arc` ( | | | `emp_no` int(11) not null, | | | `birth_date` date not null, | | | `first_name` varchar(14) not null, | | | `last_name` varchar(16) not null, | | | `gender` enum('m','f') not null, | | | `hire_date` date not null, | | | primary key (`emp_no`), | | | key `idx_first_last` (`first_name`,`last_name`), | | | key `idx_birth_hire` (`birth_date`,`hire_date`), | | | key `idx_empno` (`emp_no`) | | | ) engine=innodb default charset=utf8 | +---------------+----------------------------------------------------+ 1 row in set time: 0.024s -- 再次进行归档操作 # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees,a=utf8 --dest h=192.168.58.3,p=3308,u=admin,d=test,t=employees_arc,a=utf8 --charset=utf8 --where "first_name = 'anneke'" --progress=50 --txn-size=1000 --statistics --no-delete --ask-pass enter password: enter password: time elapsed count 2019-04-16t10:31:36 0 0 2019-04-16t10:31:37 0 50 2019-04-16t10:31:37 0 100 2019-04-16t10:31:37 0 150 2019-04-16t10:31:37 0 200 2019-04-16t10:31:37 0 225 started at 2019-04-16t10:31:36, ended at 2019-04-16t10:31:37 source: a=utf8,d=employees,p=3306,h=192.168.58.3,p=...,t=employees,u=admin dest: a=utf8,d=test,p=3308,h=192.168.58.3,p=...,t=employees_arc,u=admin select 225 insert 225 delete 0 action count time pct select 114 0.5027 80.47 inserting 225 0.0572 9.15 commit 2 0.0469 7.50 other 0 0.0180 2.88 -- 查询源表和归档表的归档数据量 mysql admin@192.168.58.3:employees> select count(*) from employees where first_name = 'anneke'; +----------+ | count(*) | +----------+ | 225 | +----------+ 1 row in set time: 0.049s percona admin@192.168.58.3:test> select count(*) from employees_arc where first_name = 'anneke'; +----------+ | count(*) | +----------+ | 225 | +----------+ 1 row in set time: 0.023s
表归档到表(批量进行)
批量进行归档涉及的选项是--limit
,批量进行插入涉及的选项为--bulk-insert
,指定选项--bulk-insert
同时也会指定选项--bulk-delete
,如果不删除已归档数据,则需要指定选项--no-delete
。
# pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees,a=utf8 --dest h=192.168.58.3,p=3308,u=admin,d=test,t=employees_arc,a=utf8 --charset=utf8 --where "first_name = 'anneke'" --progress=50 --txn-size=1000 --limit=50 --statistics --no-delete --bulk-insert --ask-pass enter password: enter password: time elapsed count 2019-04-16t10:34:17 0 0 2019-04-16t10:34:17 0 50 2019-04-16t10:34:17 0 100 2019-04-16t10:34:17 0 150 2019-04-16t10:34:17 0 200 2019-04-16t10:34:17 0 225 started at 2019-04-16t10:34:17, ended at 2019-04-16t10:34:17 source: a=utf8,d=employees,p=3306,h=192.168.58.3,p=...,t=employees,u=admin dest: a=utf8,d=test,p=3308,h=192.168.58.3,p=...,t=employees_arc,u=admin select 225 insert 225 delete 0 action count time pct select 6 0.1171 81.13 bulk_inserting 5 0.0086 5.98 commit 2 0.0025 1.72 print_bulkfile 225 -0.0004 -0.25 other 0 0.0165 11.42
表归档到文件
表归档到文件将选项--dest
换成--file
,并且根据需要添加选项--output-format
。
# pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees,a=utf8 --file='/data/employees_arc_%y-%m-%d.sql' --charset=utf8 --output-format='dump' --where "first_name = 'anneke'" --progress=50 --txn-size=1000 --limit=50 --statistics --no-delete --ask-pass enter password: time elapsed count 2019-04-16t10:36:02 0 0 2019-04-16t10:36:02 0 50 2019-04-16t10:36:02 0 100 2019-04-16t10:36:02 0 150 2019-04-16t10:36:02 0 200 2019-04-16t10:36:02 0 225 started at 2019-04-16t10:36:02, ended at 2019-04-16t10:36:02 source: a=utf8,d=employees,p=3306,h=192.168.58.3,p=...,t=employees,u=admin select 225 insert 0 delete 0 action count time pct select 6 0.1253 93.68 print_file 225 0.0004 0.33 commit 1 0.0001 0.05 other 0 0.0079 5.93
表清除数据
如果只是进行表数据清除操作而不做归档操作,则可以忽略选项--dest
或--file
,通过指定选项--purge
,可以先使用选项--dry-run
打印查询需要清除数据的执行语句,做好确认之后再执行。
-- 先使用选项--dry-run # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees,a=utf8 --purge --charset=utf8 --where "first_name = 'anneke'" --progress=50 --txn-size=1000 --limit=50 --statistics --ask-pass --dry-run enter password: select /*!40001 sql_no_cache */ `emp_no`,`birth_date`,`first_name`,`last_name`,`gender`,`hire_date` from `employees`.`employees` force index(`primary`) where (first_name = 'anneke') order by `emp_no` limit 50 select /*!40001 sql_no_cache */ `emp_no`,`birth_date`,`first_name`,`last_name`,`gender`,`hire_date` from `employees`.`employees` force index(`primary`) where (first_name = 'anneke') and ((`emp_no` >= ?)) order by `emp_no` limit 50 delete from `employees`.`employees` where (`emp_no` = ?) -- 执行清除操作 # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees,a=utf8 --purge --charset=utf8 --where "first_name = 'anneke'" --progress=50 --txn-size=1000 --limit=50 --statistics --ask-pass enter password: time elapsed count 2019-04-16t10:40:57 0 0 2019-04-16t10:40:57 0 50 2019-04-16t10:40:58 0 100 2019-04-16t10:40:58 0 150 2019-04-16t10:40:58 0 200 2019-04-16t10:40:58 0 225 started at 2019-04-16t10:40:57, ended at 2019-04-16t10:40:58 source: a=utf8,d=employees,p=3306,h=192.168.58.3,p=...,t=employees,u=admin select 225 insert 0 delete 225 action count time pct deleting 225 0.6943 79.10 select 6 0.1386 15.79 commit 1 0.0265 3.02 other 0 0.0183 2.08 -- 也可以使用选项--bulk-delete进行批量清除 # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees,a=utf8 --purge --charset=utf8 --where "first_name = 'anneke'" --progress=50 --txn-size=1000 --limit=50 --bulk-delete --statistics --ask-pass enter password: time elapsed count 2019-04-16t10:43:07 0 0 2019-04-16t10:43:07 0 50 2019-04-16t10:43:07 0 100 2019-04-16t10:43:07 0 150 2019-04-16t10:43:07 0 200 2019-04-16t10:43:07 0 225 started at 2019-04-16t10:43:07, ended at 2019-04-16t10:43:07 source: a=utf8,d=employees,p=3306,h=192.168.58.3,p=...,t=employees,u=admin select 225 insert 0 delete 225 action count time pct select 6 0.1131 66.43 bulk_deleting 5 0.0384 22.54 commit 1 0.0153 8.97 other 0 0.0035 2.06
表自增字段处理
默认情况下,pt-archiver工具在进行表数据归档或是清除时,通过添加where子句条件限制具有auto_increment属性字段所对应的数据行操作,这是为了在数据库重启之后,之前auto_increment对应的值还可以使用(),但这会造成归档数据少一条或是清除数据少一条的情况。
-- 待归档数据表employees_ptarc信息 可以查看'环境与数据准备'信息。 -- 指定选项--dry-run执行归档操作 # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees_ptarc,a=utf8 --dest h=192.168.58.3,p=3308,u=admin,d=test,t=employees_ptarc,a=utf8 --charset=utf8 --where "1 = 1" --progress=10000 --txn-size=10000 --limit=10000 --statistics --no-delete --bulk-insert --ask-pass --dry-run enter password: enter password: select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (1 = 1) and (`id` < '200000') order by `id` limit 10000 select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (1 = 1) and (`id` < '200000') and ((`id` > ?)) order by `id` limit 10000 load data local infile ? into table `test`.`employees_ptarc`character set utf8(`id`,`v_int`,`v_string`,`s_string`) -- 指定选项--dry-run执行清除操作 # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees_ptarc,a=utf8 --purge --charset=utf8 --where "1 = 1" --progress=10000 --txn-size=10000 --limit=10000 --statistics --bulk-delete --ask-pass --dry-run enter password: select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (1 = 1) and (`id` < '200000') order by `id` limit 10000 select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (1 = 1) and (`id` < '200000') and ((`id` >= ?)) order by `id` limit 10000 delete from `employees`.`employees_ptarc` where (((`id` >= ?))) and (((`id` <= ?))) and (1 = 1) limit 10000
可以看出工具在执行查询归档数据的语句时,指定了条件id < 200000
,而实际上表中是有id = 200000
这条数据的,并且在归档操作时并没有指定条件排除这条语句,显然是pt-archiver工具自动添加的条件。
这样可以避免auto_increment属性的值在数据库重启后还可以重用,可以做如下测试说明:
-- 表employees_ptarc当前的auto_increment属性值 mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc'; +----------------+ | auto_increment | +----------------+ | 200001 | +----------------+ 1 row in set time: 0.048s -- 需要清除的数据量 mysql admin@192.168.58.3:employees> select count(*) from employees_ptarc where id <=199990 or id > 199995; +----------+ | count(*) | +----------+ | 199995 | +----------+ 1 row in set time: 0.102s -- 执行数据清除操作 # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees_ptarc,a=utf8 --purge --charset=utf8 --where "id <= 199990 or id > 199995" --progress=50000 --txn-size=50000 --limit=50000 --statistics --bulk-delete --ask-pass enter password: time elapsed count 2019-04-16t10:47:59 0 0 2019-04-16t10:48:00 0 50000 2019-04-16t10:48:00 1 100000 2019-04-16t10:48:01 2 150000 2019-04-16t10:48:02 2 199994 started at 2019-04-16t10:47:59, ended at 2019-04-16t10:48:02 source: a=utf8,d=employees,p=3306,h=192.168.58.3,p=...,t=employees_ptarc,u=admin select 199994 insert 0 delete 199994 action count time pct bulk_deleting 4 0.9030 28.23 select 5 0.2095 6.55 commit 4 0.1562 4.88 other 0 1.9298 60.33 可以看出只清除了199994行数据。 -- 查询未清除数据 mysql admin@192.168.58.3:employees> select * from employees_ptarc; +--------+--------+---------------+----------------------+ | id | v_int | v_string | s_string | +--------+--------+---------------+----------------------+ | 199991 | 60305 | 526ed | 0240a2d81e255c915b5a | | 199992 | 546438 | a85b6a18d | 0bf1d636cd0e536eb044 | | 199993 | 543327 | 1367a1c | 68908231ca18ed631907 | | 199994 | 99632 | 2f | 5c10f8d106a30bb1ef95 | | 199995 | 164172 | e57bba13eb3c1 | 3208ac758bd8c912c39f | | 200000 | 108936 | 3bc1db70b | 079f744bf2800ad62a9b | +--------+--------+---------------+----------------------+ 6 rows in set time: 0.018s -- 重启后,查询当前auto_increment属性值 mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc'; +----------------+ | auto_increment | +----------------+ | 200001 | +----------------+ 1 row in set time: 0.014s
为了不保护auto_increment属性最大值的数据行,工具提供了选项--no-safe-auto-increment
,指定该选项后再进行测试:
-- 指定选项--dry-run执行清除操作 # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees_ptarc,a=utf8 --purge --charset=utf8 --where "id <= 199990 or id > 199995" --progress=50000 --txn-size=50000 --limit=50000 --statistics --bulk-delete --no-safe-auto-increment --ask-pass --dry-run enter password: select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (id <= 199990 or id > 199995) order by `id` limit 50000 select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (id <= 199990 or id > 199995) and ((`id` >= ?)) order by `id` limit 50000 delete from `employees`.`employees_ptarc` where (((`id` >= ?))) and (((`id` <= ?))) and (id <= 199990 or id > 199995) limit 50000 从以上信息看出并没有对auto_increment属性字段最大值进行排除。 -- 执行数据清除操作 # pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees_ptarc,a=utf8 --purge --charset=utf8 --where "id <= 199990 or id > 199995" --progress=50000 --txn-size=50000 --limit=50000 --statistics --bulk-delete --no-safe-auto-increment --ask-pass enter password: time elapsed count 2019-04-16t10:52:19 0 0 2019-04-16t10:52:20 0 50000 2019-04-16t10:52:20 1 100000 2019-04-16t10:52:21 1 150000 2019-04-16t10:52:22 2 199995 started at 2019-04-16t10:52:19, ended at 2019-04-16t10:52:22 source: a=utf8,d=employees,p=3306,h=192.168.58.3,p=...,t=employees_ptarc,u=admin select 199995 insert 0 delete 199995 action count time pct bulk_deleting 4 0.7500 27.80 select 5 0.1851 6.86 commit 4 0.0622 2.30 other 0 1.7007 63.03 可以看出清除了199995行数据。 -- 查询未清除数据 mysql admin@192.168.58.3:employees> select * from employees_ptarc; +--------+--------+---------------+----------------------+ | id | v_int | v_string | s_string | +--------+--------+---------------+----------------------+ | 199991 | 60305 | 526ed | 0240a2d81e255c915b5a | | 199992 | 546438 | a85b6a18d | 0bf1d636cd0e536eb044 | | 199993 | 543327 | 1367a1c | 68908231ca18ed631907 | | 199994 | 99632 | 2f | 5c10f8d106a30bb1ef95 | | 199995 | 164172 | e57bba13eb3c1 | 3208ac758bd8c912c39f | +--------+--------+---------------+----------------------+ 5 rows in set time: 0.027s -- 重启后,查询当前auto_increment属性值 mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc'; +----------------+ | auto_increment | +----------------+ | 199996 | +----------------+ 1 row in set time: 0.046s
从以上查询信息可以看出auto_increment属性值发生了变化。如果要恢复成之前的状态值,可以通过手动执行命令进行修复:
mysql admin@192.168.58.3:employees> alter table employees_ptarc auto_increment = 200001; query ok, 0 rows affected time: 0.013s mysql admin@192.168.58.3:employees> select auto_increment from information_schema.tables where table_schema = 'employees' and table_name = 'employees_ptarc'; +----------------+ | auto_increment | +----------------+ | 200001 | +----------------+ 1 row in set time: 0.020s
工作流程
分别开启两个实例的general log
来了解pt-archiver工具的工作流程,工作流程是基于表归档到表(批量进行)这个用法来说明,同时删除源端表的已归档数据。
执行命令如下:
# pt-archiver --source h=192.168.58.3,p=3306,u=admin,d=employees,t=employees_ptarc,a=utf8 --dest h=192.168.58.3,p=3308,u=admin,d=test,t=employees_ptarc,a=utf8 --charset=utf8 --where "id <= 199995" --progress=50000 --txn-size=50000 --limit=50000 --statistics --bulk-insert --ask-pass enter password: enter password: time elapsed count 2019-04-16t10:56:18 0 0 2019-04-16t10:56:19 1 50000 2019-04-16t10:56:21 2 100000 2019-04-16t10:56:23 4 150000 2019-04-16t10:56:24 6 199995 started at 2019-04-16t10:56:18, ended at 2019-04-16t10:56:25 source: a=utf8,d=employees,p=3306,h=192.168.58.3,p=...,t=employees_ptarc,u=admin dest: a=utf8,d=test,p=3308,h=192.168.58.3,p=...,t=employees_ptarc,u=admin select 199995 insert 199995 delete 199995 action count time pct bulk_inserting 4 1.3027 19.51 bulk_deleting 4 0.7103 10.64 select 5 0.1872 2.80 commit 8 0.1455 2.18 print_bulkfile 199995 -0.3881 -5.81 other 0 4.7192 70.68
- 源端实例general log
-- 初始的一些检查数据库参数、负载信息 13 connect admin@dbabd1 on employees using tcp/ip 13 query set autocommit=0 13 query /*!40101 set names "utf8"*/ 13 query show variables like 'wait\_timeout' 13 query set session wait_timeout=10000 13 query select @@sql_mode 13 query set @@sql_quote_show_create = 1/*!40101, @@sql_mode='no_auto_value_on_zero,only_full_group_by,strict_trans_tables,no_zero_in_date,no_zero_date,error_for_division_by_zero,no_auto_create_user,no_engine_substitution'*/ 13 query select version() 13 query show variables like 'version%' 13 query show engines 13 query show variables like 'innodb_version' 13 query show variables like 'innodb_rollback_on_timeout' 13 query /*!40101 set @old_sql_mode := @@sql_mode, @@sql_mode := '', @old_quote := @@sql_quote_show_create, @@sql_quote_show_create := 1 */ 13 query use `employees` 13 query show create table `employees`.`employees_ptarc` 13 query /*!40101 set @@sql_mode := @old_sql_mode, @@sql_quote_show_create := @old_quote */ 13 query select concat(/*!40100 @@session.character_set_connection, */ "") 13 query show variables like 'wsrep_on' 13 query show variables like 'wsrep_on' 13 query show variables like 'version%' 13 query show engines 13 query show variables like 'innodb_version' -- 确定归档数据最大边界值,根据主键还有选项--limit确定每次归档的数据 13 query select max(`id`) from `employees`.`employees_ptarc` 13 query select concat(@@hostname, @@port) 13 query select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (id <= 199995) and (`id` < '200000') order by `id` limit 50000 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' ……省略…… 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' 13 query commit 13 query select 'pt-archiver keepalive' -- 归档完数据之后根据是否有选项--no-delete进行删除操作 13 query delete from `employees`.`employees_ptarc` where (((`id` >= '1'))) and (((`id` <= '50000'))) and (id <= 199995) limit 50000 -- 进行接下去的数据归档操作 13 query select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (id <= 199995) and (`id` < '200000') and ((`id` >= '50000')) order by `id` limit 50000 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' ……省略…… 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' 13 query commit 13 query select 'pt-archiver keepalive' 13 query delete from `employees`.`employees_ptarc` where (((`id` >= '50001'))) and (((`id` <= '100000'))) and (id <= 199995) limit 50000 13 query select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (id <= 199995) and (`id` < '200000') and ((`id` >= '100000')) order by `id` limit 50000 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' ……省略…… 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' 13 query commit 13 query select 'pt-archiver keepalive' 13 query delete from `employees`.`employees_ptarc` where (((`id` >= '100001'))) and (((`id` <= '150000'))) and (id <= 199995) limit 50000 13 query select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (id <= 199995) and (`id` < '200000') and ((`id` >= '150000')) order by `id` limit 50000 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' ……省略…… 13 query select 'pt-archiver keepalive' 13 query select 'pt-archiver keepalive' 13 query delete from `employees`.`employees_ptarc` where (((`id` >= '150001'))) and (((`id` <= '199995'))) and (id <= 199995) limit 50000 -- 完成最后查询是否还有归档数据 13 query select /*!40001 sql_no_cache */ `id`,`v_int`,`v_string`,`s_string` from `employees`.`employees_ptarc` force index(`primary`) where (id <= 199995) and (`id` < '200000') and ((`id` >= '199995')) order by `id` limit 50000 13 query commit 13 quit
- 目标端实例general log
-- 初始的一些检查数据库参数、负载信息 62 connect admin@dbabd1 on test using tcp/ip 62 query set autocommit=0 62 query /*!40101 set names "utf8"*/ 62 query show variables like 'wait\_timeout' 62 query set session wait_timeout=10000 62 query select @@sql_mode 62 query set @@sql_quote_show_create = 1/*!40101, @@sql_mode='no_auto_value_on_zero,only_full_group_by,strict_trans_tables,no_zero_in_date,no_zero_date,error_for_division_by_zero,no_auto_create_user,no_engine_substitution'*/ 62 query select version() 62 query show variables like 'version%' 62 query show engines 62 query show variables like 'innodb_version' 62 query show variables like 'innodb_rollback_on_timeout' 62 query /*!40101 set @old_sql_mode := @@sql_mode, @@sql_mode := '', @old_quote := @@sql_quote_show_create, @@sql_quote_show_create := 1 */ -- 切换进入目标端数据库 62 query use `test` 62 query show create table `test`.`employees_ptarc` 62 query /*!40101 set @@sql_mode := @old_sql_mode, @@sql_quote_show_create := @old_quote */ 62 query select concat(/*!40100 @@session.character_set_connection, */ "") 62 query select concat(@@hostname, @@port) 62 query commit -- 批量插入选项--bulk-insert是通过load data infile方式生成临时文件进行导入 62 query load data local infile '/tmp/ugete6heippt-archiver' into table `test`.`employees_ptarc`character set utf8(`id`,`v_int`,`v_string`,`s_string`) 62 query commit 62 query load data local infile '/tmp/pnnmzgvqx6pt-archiver' into table `test`.`employees_ptarc`character set utf8(`id`,`v_int`,`v_string`,`s_string`) 62 query commit 62 query load data local infile '/tmp/pjdb48jqvqpt-archiver' into table `test`.`employees_ptarc`character set utf8(`id`,`v_int`,`v_string`,`s_string`) 62 query load data local infile '/tmp/xvb0nmyjigpt-archiver' into table `test`.`employees_ptarc`character set utf8(`id`,`v_int`,`v_string`,`s_string`) 62 query commit 62 quit
总结
- pt-archiver是一个十分高效的表数据归档工具,归档数据可以分批进行事务处理,减少性能消耗;
- 如果实例开启了gtid,因为gtid不支持ctas创建表的语法,可以使用pt-archiver处理;
- 对于跨实例或者跨服务器的表数据归档,pt-archiver可以运行在目标端服务器,因为生成的临时文件是在工具执行所在的服务器。
- 对于大表的过期数据的批量删除也可以通过pt-archiver指定选项
--purge
进行处理。
参考
https://www.percona.com/doc/percona-toolkit/latest/pt-archiver.html
☆〖本人水平有限,文中如有错误还请留言批评指正!〗☆