SQL Server实现自动循环归档分区数据脚本详解
概述
大家应该都知道在很多业务场景下我们需要对一些记录量比较大的表进行分区,同时为了保证性能需要将一些旧的数据进行归档。在分区表很多的情况下如果每一次归档都需要人工干预的话工程量是比较大的而且也容易发生纰漏。接下来分享一个自己编写的自动归档分区数据的脚本,原理是分区表和归档表使用相同的分区方案,循环利用当前的文件组,话不多说了,来一起看看详细的介绍吧。
一、创建测试数据
----01创建文件组 use [master] go alter database [chenmh] add filegroup [group1] go alter database [chenmh] add filegroup [group2] go alter database [chenmh] add filegroup [group3] go alter database [chenmh] add filegroup [group4] go use [master] go alter database [chenmh] add file ( name = n'datafile1', filename = n'c:\program files\microsoft sql server\mssql12.mssqlserver\mssql\data\datafile1.ndf' , size = 8192kb , filegrowth = 65536kb ) to filegroup [group1] go alter database [chenmh] add file ( name = n'datafile2', filename = n'c:\program files\microsoft sql server\mssql12.mssqlserver\mssql\data\datafile2.ndf' , size = 8192kb , filegrowth = 65536kb ) to filegroup [group2] go alter database [chenmh] add file ( name = n'datafile3', filename = n'c:\program files\microsoft sql server\mssql12.mssqlserver\mssql\data\datafile3.ndf' , size = 8192kb , filegrowth = 65536kb ) to filegroup [group3] go alter database [chenmh] add file ( name = n'datafile4', filename = n'c:\program files\microsoft sql server\mssql12.mssqlserver\mssql\data\datafile4.ndf' , size = 8192kb , filegrowth = 65536kb ) to filegroup [group4] go ----02创建分区函数 use [chenmh] go create partition function [pt_range](bigint) as range right for values (1000000, 2000000, 3000000) go ----03创建分区方案,分区方案对应的文件组数是分区函数指定的数量+1 create partition scheme ps_range as partition pt_range to (group1, group2, group3, group4); ---04创建表,指定的分区列的数据类型一定要和分区函数指定的列类型一致。 create table [dbo].[news]( [id] [bigint] not null, [status] [int] null, constraint [pk_news] primary key clustered ( [id] asc )with (pad_index = off, statistics_norecompute = off, ignore_dup_key = off, allow_row_locks = on, allow_page_locks = on) on [ps_range](id) ) on [ps_range](id) -----创建归档分区表 create table [dbo].[newsarchived]( [id] [bigint] not null, [status] [int] null, constraint [pk_newsarchived] primary key clustered ( [id] asc )with (pad_index = off, statistics_norecompute = off, ignore_dup_key = off, allow_row_locks = on, allow_page_locks = on) on [ps_range](id) ) on [ps_range](id) ----插入测试数据 declare @id int set @id=1 while @id<5001000 begin insert into news values(@id,@id%2) set @id=@id+1 end
可以看到当前总共有4个分区,每一个分区定义的范围区间是100万,分区4我故意多插入了200多万的数据来验证自动归档分区。
二、自动归档分区脚本
create procedure pro_partition_autoarchivedata (@partitiontable varchar(300), @switchtable varchar(300) ) as begin declare @funname varchar(100),@schemaname varchar(100),@maxpartitionvalue sql_variant ---根据归档表查找对应的分区方案、分区函数、最小分区数、最大分区范围值 select distinct @funname=max(pf.name), @schemaname=max(ps.name), @maxpartitionvalue=max(isnull(prv.value,0)) from sys.partitions p inner join sys.indexes i on p.object_id=i.object_id and p.index_id=i.index_id inner join sys.partition_schemes ps on i.data_space_id=ps.data_space_id inner join sys.destination_data_spaces dds on ps.data_space_id=dds.partition_scheme_id and dds.destination_id=p.partition_number inner join sys.data_spaces ds on dds.data_space_id=ds.data_space_id inner join sys.partition_functions pf on ps.function_id=pf.function_id left join sys.partition_range_values prv on pf.function_id=prv.function_id and prv.boundary_id=p.partition_number-pf.boundary_value_on_right left join sys.partition_parameters pp on prv.function_id=pp.function_id and prv.parameter_id=pp.parameter_id left join sys.types t on pp.system_type_id=t.system_type_id and pp.user_type_id=t.user_type_id where object_name(p.object_id)=@partitiontable declare @maxid bigint,@minid bigint,@sql nvarchar(max),@groupname varchar(100),@minpartitionnumber int set @sql= n'select @maxid=max(id),@minid=min(id) from '+@partitiontable exec sp_executesql @sql,n'@maxid bigint out,@minid bigint out',@maxid out,@minid out select @funname as funname,@schemaname as schemaname,@maxpartitionvalue as maxpartitionvalue ,@maxid as maxid,@minid as minid ---判断当前表的最大的id是否已经在最大的分区中 if @maxid>=@maxpartitionvalue begin ----归档分区数据,根据表的最小值找到它所属的分区. set @sql= n'select @minpartitionnumber=$partition.'+@funname+n'('+convert(varchar(30),@minid)+n')'; exec sp_executesql @sql,n'@minpartitionnumber int out',@minpartitionnumber out set @sql=n'alter table ' +@partitiontable+ n' switch partition '+convert(varchar(10),@minpartitionnumber)+ n' to ' +@switchtable+ n' partition ' +convert(varchar(10),@minpartitionnumber); --print @sql exec (@sql) ---修改分区方案,增加新的分区对应的文件组,根据最小的分区id找到对应的文件组。 select distinct @groupname=ds.name from sys.partitions p inner join sys.indexes i on p.object_id=i.object_id and p.index_id=i.index_id inner join sys.partition_schemes ps on i.data_space_id=ps.data_space_id inner join sys.destination_data_spaces dds on ps.data_space_id=dds.partition_scheme_id and dds.destination_id=p.partition_number inner join sys.data_spaces ds on dds.data_space_id=ds.data_space_id inner join sys.partition_functions pf on ps.function_id=pf.function_id where pf.name=@funname and ps.name=@schemaname and p.partition_number=@minpartitionnumber set @sql=n'alter partition scheme '+@schemaname+n' next used '+@groupname --print @sql exec (@sql) ---修改分区函数,增加新的分区,增加新的分区范围值,在现有的最大的值的基础上加100万(需要和现有的分区函数的范围保持一致) set @maxpartitionvalue=convert(bigint,@maxpartitionvalue)+1000000 set @sql=n'alter partition function '+@funname+n'('+n')'+n' split range ('+convert(varchar(30),@maxpartitionvalue)+n')' --print @sql exec (@sql) end end
三、自动归档分区数据
1.首次测试
exec pro_partition_autoarchivedata 'news','newsarchived';
注意:每调用一次归档一个最小分区的数据。
分区表的news分区1的数据被归档到了newsarchived表中,且创建了分区5,分区5使用的是已归档的分区1的文件组,达到了循环利用文件组的效果。
2.再调用一次归档分区脚本
当分区表最大的id小于最大的分区值时自动归档分区脚本就不会生效。所以当前的测试表数据还可以再归档分区3的数据。
3.经过一段时间的运行归档数据可能是这样的效果
group1→group4→group1→.......
四、脚本注意事项
1.@partitiontable和@switchtable表必须使用同名的分区方案和分区函数,否则@switchtable就需要单独修改分区方案和函数,且表结构完全一致。
2.归档的表分区列数据类型必须是int类型,且值是自增规律.
3.分区归档作业在备份作业后执行
4.建议使用right分区,left分区会出现有的最后一个分区文件组不会循环替换,一直处于分区的最后,比如group1,group2,group3,group1,group2,group3,group1,group4。期望的应该是group1,group2,group3,group4,group1,group2,group3,group4,group1
5.注意我当前的每个分区大小是100万和分区函数保持一致,如果范围值不同,需要修改最末尾代码的"修改分区函数"处代码.
总结
当前自动归档分区脚本如果要拷贝去用还是得能完全理解每一段代码,根据自己的业务做适当的修改,毕竟数据是无价的!!!。最后只需要创建一个作业定期跑作业就行,重复执行也不影响。
好了,以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对的支持。