mybatis-plus 处理大数据插入太慢的解决
程序员文章站
2022-04-29 21:15:23
大批量数据插入方法是mybatis的foreach拼接sql我发现不管改成mybatis batch提交或者原生jdbc batch的方法都不起作用,实际上在插入的时候仍然是一条条记录的插,速度远不如...
大批量数据插入方法是mybatis的foreach拼接sql
我发现不管改成mybatis batch提交或者原生jdbc batch的方法都不起作用,实际上在插入的时候仍然是一条条记录的插,速度远不如原来mybatis的foreach拼接sql的方法。
// 第一步判断更新或添加 string[] splituserid = usergroup.getuserid().split(","); string[] spiltusername = usergroup.getusername().split(","); if (stringutils.isblank(usergroup.getid())) { usergroup.setnum(spiltusername.length); usergroupmapper.insert(usergroup); } else { usergroup.setnum(spiltusername.length); usergroupmapper.updatebyid(usergroup); } /* 第二部删除中间表信息,字段冗余 */ map<string, object> columnmap = new hashmap<string, object>(); columnmap.put("user_group_id", usergroup.getid()); groupusersservice.removebymap(columnmap); /* 第三步,批量保存中间表 */ if (splituserid.length != 0) { list<groupusers> groupuserslist = lists.newarraylist(); for (int i = 0; i < splituserid.length; i++) { groupusers gu = new groupusers(); gu.setuserid(splituserid[i]); gu.setusername(spiltusername[i]); gu.setusergroupid(usergroup.getid()); groupuserslist.add(gu); } groupusersservice.savebatch(groupuserslist); }
- 就是这样的一种情景也很符合大部分的开发场景,可就是1000条数据的情况下用了8秒 ,这可能与计算机的性能有很大的关系,但就是如此也不至于用八秒钟,那么用户体验会很惨的。
- jdbc连接url字符串中需要新增一个参数:rewritebatchedstatements=true url: jdbc:mysql://192.168.1.143:3306/rt_xxxxxx_test?useunicode=true&characterencoding=utf-8&rewritebatchedstatements=true
- mysql的jdbc连接的url中要加rewritebatchedstatements参数,并保证5.1.13以上版本的驱动,才能实现高性能的批量插入。
- mysql jdbc驱动在默认情况下会无视executebatch()语句,把我们期望批量执行的一组sql语句拆散,一条一条地发给mysql数据库,批量插入实际上是单条插入,直接造成较低的性能。
- 只有把rewritebatchedstatements参数置为true, 驱动才会帮你批量执行sql
- 另外这个选项对insert/update/delete都有效
其他原因:
问题
最近项目用的mybatis-plus做的映射,有个批处理文件内容的需求,在使用mybatis-plus的批处理方法savebatch时发现速度特别慢,测试从1000到10000到80000条基本上是线性增加,80000条时差不多要90秒。
排查
经debug排查sql语句是批量执行,所以应该不是框架本身的问题,由于用的是公司的手脚架,在mysql连接配置中发现了问题
这里少配置了一个参数rewritebatchedstatements=true
结果
修改前24w数据大概在254709 ms
修改后24w数据大概在42506 ms
单次批量插入10000条大概在1700ms
到此这篇关于mybatis-plus 处理大数据量太慢的解决的文章就介绍到这了,更多相关mybatis-plus 处理大数据太慢内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!