C#在MySQL大量数据下的高效读取、写入详解
前言
c#操作mysql大量数据最常见的操作便是 select 读取数据,然后在c#中对数据进行处理, 完毕后再插入数据库中。 简而言之就 select -> process -> insert 三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能
最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化??
第一步 解决读取的问题
跟数据库打交道的方式有很多,我来列举下吧:
1. 【重武器-坦克大炮】使用重型orm框架,比如 ef,nhibernat 这样的框架。
2. 【轻武器-ak47】 使用 dapper,petapoco 之类,单cs文件。灵活高效,使用简单。居家越货必备(我更喜欢petapoco :))
3. 【冷兵器?匕首?】使用原生的connection、command。 然后写原生的sql语句。。
分析:
【重武器】在我们这里肯定直接被pass, 他们应该被用在大型项目中。
【轻武器】 dapper,petapoco 看过源码你会发现用到了反射,虽然使用 il和缓存技术 ,但是还是会影响读取效率,pass
好吧那就只有使用匕首, 原生sql 走起, 利用 datareader 进行高效读取,并且使用 索引 取数据(更快),而不是列名。
大概的代码如下:
using (var conn = new mysqlconnection("connection string...")) { conn.open(); //此处设置读取的超时,不然在海量数据时很容易超时 var c = new mysqlcommand("set net_write_timeout=9999999; set net_read_timeout=9999999", conn); c.executenonquery(); mysqlcommand rcmd = new mysqlcommand(); rcmd.connection = conn; rcmd.commandtext = @"select `f1`,`f2` from `table1`"; //设置命令的执行超时 rcmd.commandtimeout = 99999999; var mydata = rcmd.executereader(); while (mydata.read()) { var f1= mydata.getint32(0); var f2= mydata.getstring(1); //这里做数据处理.... } }
哈哈,怎么样,代码非常原始,还是使用索引来取数据,很容易出错。 当然一切为了性能咱都忍了
第二步 数据处理
其实这一步,根据你的业务需要,代码肯定不一, 不过无非是一些 字符串处理 , 类型转换 的操作,这时候就是考验你的c#基础功底的时候了。 以及如何高效编写正则表达式。。。
具体代码也没法写啊 ,先看完 clr via c# 在来跟我讨论吧 ,o(∩_∩)o哈哈哈~ 跳过。。。。
第三部 数据插入
如何批量插入才最高效呢? 有同学会说, 使用 事务 啊,begintransaction, 然后endtransaction。 恩,这个的确可以提高插入效率。 但是还有更加高效的方法,那就是合并insert语句。
那么怎么合并呢?
insert into table (f1,f2) values(1,'sss'),values(2,'bbbb'),values(3,'cccc');
就是把values后面的全部用逗号,链接起来,然后一次性执行 。
当然不能一次性提交个100mb的sql执行,mysql服务器对每次执行命令的长度是有限制的。 通过 mysql服务器端的 max_allowed_packet 属性可以查看, 默认是 1mb
咱们来看看伪代码吧
//使用stringbuilder高效拼接字符串 var sqlbuilder = new stringbuilder(); //添加insert 语句的头 string sqlheader = "insert into table1 (`f1`,`f2`) values"; sqlbuilder.append(sqlheader); using (var conn = new mysqlconnection("connection string...")) { conn.open(); //此处设置读取的超时,不然在海量数据时很容易超时 var c = new mysqlcommand("set net_write_timeout=9999999; set net_read_timeout=9999999", conn); c.executenonquery(); mysqlcommand rcmd = new mysqlcommand(); rcmd.connection = conn; rcmd.commandtext = @"select `f1`,`f2` from `table1`"; //设置命令的执行超时 rcmd.commandtimeout = 99999999; var mydata = rcmd.executereader(); while (mydata.read()) { var f1 = mydata.getint32(0); var f2 = mydata.getstring(1); //这里做数据处理.... sqlbuilder.appendformat("({0},'{1}'),", f1,addslash(f2)); if (sqlbuilder.length >= 1024 * 1024 * 1024)//当然这里的1mb length的字符串并不等于 1mb的packet。。。我知道:) { insertcmd.execute(sqlbuilder.remove(sqlbuilder.length-1,1).tostring())//移除逗号,然后执行 sqlbuilder.clear();//清空 sqlbuilder.append(sqlheader);//在加上insert 头 } } }
好了,到这里 大概的优化后的高效查询、插入就完成了。
总结
总结下来,无非2个关键技术点, datareader、sql合并, 都是一些老的技术啦。其实,上面的代码只能称得上高效, 但是, 却非常的不优雅。以上就是这篇文章的全部内容了,希望本文的内容对大家能有所帮助,如果有疑问大家可以留言交流。