C#批量插入数据到Sqlserver中的三种方式
本篇,我将来讲解一下在sqlserver中批量插入数据。
先创建一个用来测试的数据库和表,为了让插入数据更快,表中主键采用的是guid,表中没有创建任何索引。guid必然是比自增长要快的,因为你生成一个guid算法所花的时间肯定比你从数据表中重新查询上一条记录的id的值然后再进行加1运算要少。而如果存在索引的情况下,每次插入记录都会进行索引重建,这是非常耗性能的。如果表中无可避免的存在索引,我们可以通过先删除索引,然后批量插入,最后再重建索引的方式来提高效率。
create database carsys; go use carsys; go create table product( id uniqueidentifier primary key, name varchar(50) not null, price decimal(18,2) not null )
我们通过sql脚本来插入数据,常见如下三种方式。
方式一,一条一条插入,性能最差,不建议使用。
insert into product(id,name,price) values(newid(),'牛栏1段',160); insert into product(id,name,price) values(newid(),'牛栏2段',260); ......
方式二
insert into product(id,name,price) values (newid(),'牛栏1段',160) ,(newid(),'牛栏2段',260) ......
方式三
insert into product(id,name,price) select newid(),'牛栏1段',160 union all select newid(),'牛栏2段',180 union all ......
在c#中通过ado.net来实现批量操作同样也存在三种方式。
方式一:逐条插入
static void insertone() { console.writeline("采用一条一条插入的方式实现"); stopwatch sw = new stopwatch(); long totalrow = 1000000; using (sqlconnection conn = new sqlconnection(strconnmsg)) //using中会自动open和close 连接。 { string sql = "insert into product(id,name,price) values(newid(),@p,@d)"; conn.open(); for (int i = 0; i < 1000000; i++) { using (sqlcommand cmd = new sqlcommand(sql, conn)) { cmd.parameters.addwithvalue("@p", "商品" + i); cmd.parameters.addwithvalue("@d", i); sw.start(); cmd.executenonquery(); console.writeline(string.format("插入1条记录,时间:{0}", sw.elapsedmilliseconds)); } if (i == 1000) { sw.stop(); break; } } } console.writeline(string.format("插入{0}条记录,每1000条的插入时间是{1}毫秒,预估总得插入时间是{2}毫秒,{3}分钟", totalrow, sw.elapsedmilliseconds, ((sw.elapsedmilliseconds / 1000) * totalrow), getminute((sw.elapsedmilliseconds / 1000 * totalrow)))); }
运行结果如下:
我们会发现插入100w条记录,预计需要50分钟时间,每插入一条记录大概需要3毫秒左右。
方式二:使用sqlbulk
#region 方式二 static void inserttwo() { console.writeline("使用bulk插入的实现方式"); stopwatch sw = new stopwatch(); datatable dt = gettableschema(); using (sqlconnection conn = new sqlconnection(strconnmsg)) { sqlbulkcopy bulkcopy = new sqlbulkcopy(conn); bulkcopy.destinationtablename = "product"; bulkcopy.batchsize = dt.rows.count; conn.open(); sw.start(); for (int i = 0; i < totalrow;i++ ) { datarow dr = dt.newrow(); dr[0] = guid.newguid(); dr[1] = string.format("商品", i); dr[2] = (decimal)i; dt.rows.add(dr); } if (dt != null && dt.rows.count != 0) { bulkcopy.writetoserver(dt); sw.stop(); } console.writeline(string.format("插入{0}条记录共花费{1}毫秒,{2}分钟", totalrow, sw.elapsedmilliseconds, getminute(sw.elapsedmilliseconds))); } } static datatable gettableschema() { datatable dt = new datatable(); dt.columns.addrange(new datacolumn[] { new datacolumn("id",typeof(guid)), new datacolumn("name",typeof(string)), new datacolumn("price",typeof(decimal))}); return dt; } #endregion
运行结果如下:
插入100w条记录才8s多,是不是很溜。
方式三:使用tvps(表值参数)插入数据
从sqlserver 2008起开始支持tvps。创建缓存表producttemp ,执行如下sql。
create type producttemp as table( id uniqueidentifier primary key, name varchar(50) not null, price decimal(18,2) not null )
执行完成之后,会发现在数据库carsys下面多了一张缓存表producttemp
可见插入100w条记录共花费了11秒多。
总结:大数据批量插入方式一尽量避免使用,而方式二和方式三都是非常高效的批量插入数据方式。其都是通过构建datatable的方式插入的,而我们知道datatable是存在内存中的,所以当数据量特别特别大,大到内存中无法一次性存储的时候,可以分段插入。比如需要插入9千万条数据,可以分成9段进行插入,一次插入1千万条。而在for循环中直接进行数据库操作,我们是应该尽量避免的。每一次数据库的连接、打开和关闭都是比较耗时的,虽然在c#中存在数据库连接池,也就是当我们使用using或者conn.close(),进行释放连接时,其实并没有真正关闭数据库连接,它只是让连接以类似于休眠的方式存在,当再次操作的时候,会从连接池中找一个休眠状态的连接,唤醒它,这样可以有效的提高并发能力,减少连接损耗。而连接池中的连接数,我们都是可以配置的。
源码下载:https://pan.baidu.com/s/1slkrrlr
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。