Hibernate批量处理海量数据的方法
本文实例讲述了hibernate批量处理海量数据的方法。分享给大家供大家参考,具体如下:
hibernate批量处理海量其实从性能上考虑,它是很不可取的,浪费了很大的内存。从它的机制上讲,hibernate它是先把符合条件的数据查出来,放到内存当中,然后再进行操作。实际使用下来性能非常不理想,在笔者的实际使用中采用下面的第三种优化方案的数据是:100000条数据插入数据库, 需要约30分钟,呵呵,晕倒。(本人10分钟插入1000000条数据(字段比较小))
总结下来有三种来处理以解决性能问题:
1:绕过hibernate api ,直接通过 jdbc api 来做,这个方法性能上是比较好的。也是最快的。
2:运用存储过程。
3:还是用hibernate api 来进行常规的批量处理,可以也有变,变就变在,我们可以在查找出一定的量的时候,及时的将这些数据做完操作就 删掉,session.flush();session.evict(xx对象集); 这样也可以挽救一点性能损失。这个"一定的量"要就要根据实际情况做定量参考了。一般为30-60左右,但效果仍然不理想。
1:绕过hibernate api ,直接通过 jdbc api 来做,这个方法性能上是比较好的,也是最快的。(实例为 更新操作)
transaction tx=session.begintransaction(); //注意用的是hibernate事务处理边界 connection conn=session.connection(); preparedstatement stmt=conn.preparedstatement("update customer as c set c.sarlary=c.sarlary+1 where c.sarlary>1000"); stmt.excuteupdate(); tx.commit(); //注意用的是hibernate事务处理边界
这小程序中,采用的是直接调用jdbc 的api 来访问数据库,效率很高。避免了hibernate 先查询出来加载到内存,再进行操作引发的性能问题
。
2:运用存储过程。但这种方式考虑到易植和程序部署的方便性,不建议使用。(实例为 更新操作)
如果底层数据库(如oracle)支持存储过程,也可以通过存储过程来执行批量更新。存储过程直接在数据库中运行,速度更加快。在oracle数据库中可以定义一个名为batchupdatecustomer()的存储过程,代码如下:
以上存储过程有一个参数p_age,代表客户的年龄,应用程序可按照以下方式调用存储过程:
tx = session.begintransaction(); connection con=session.connection(); string procedure = "{call batchupdatecustomer(?) }"; callablestatement cstmt = con.preparecall(procedure); cstmt.setint(1,0); //把年龄参数设为0 cstmt.executeupdate(); tx.commit();
从上面程序看出,应用程序也必须绕过hibernate api,直接通过jdbc api来调用存储过程。
3:还是用hibernate api 来进行常规的批量处理,可以也有变,变就变在,我们可以在查找出一定的量的时候,及时的将这些数据做完操作就删掉,session.flush();session.evict(xx对象集); 这样也可以挽救一点性能损失。这个"一定的量"要就要根据实际情况做定量参考了……
(实例为 保存操作)
业务逻辑为:我们要想数据库插入10 0000 条数据
tx=session.begintransaction(); for(int i=0;i<100000;i++) { customer custom=new customer(); custom.setname("user"+i); session.save(custom); if(i%50==0) // 以每50个数据作为一个处理单元,也就是我上面说的"一定的量",这个量是要酌情考虑的 { session.flush(); session.clear(); } }
这样可以把系统维持在一个稳定的范围……
在项目的开发过程之中,由于项目需求,我们常常需要把大批量的数据插入到数据库。数量级有万级、十万级、百万级、甚至千万级别的。如此数量级别的数据用hibernate做插入操作,就可能会发生异常,常见的异常是outofmemoryerror(内存溢出异常)。
首先,我们简单来回顾一下hibernate插入操作的机制。hibernate要对它内部缓存进行维护,当我们执行插入操作时,就会把要操作的对象全部放到自身的内部缓存来进行管理。
谈到hibernate的缓存,hibernate有内部缓存与二级缓存之说。由于hibernate对这两种缓存有着不同的管理机制,对于二级缓存,我们可以对它的大小进行相关配置,而对于内部缓存,hibernate就采取了"放任自流"的态度了,对它的容量并没有限制。现在症结找到了,我们做海量数据插入的时候,生成这么多的对象就会被纳入内部缓存(内部缓存是在内存中做缓存的),这样你的系统内存就会一点一点的被蚕食,如果最后系统被挤"炸"了,也就在情理之中了。
我们想想如何较好的处理这个问题呢?有的开发条件又必须使用hibernate来处理,当然有的项目比较灵活,可以去寻求其他的方法。
笔者在这里推荐两种方法:
(1):优化hibernate,程序上采用分段插入及时清除缓存的方法。
(2):绕过hibernate api ,直接通过 jdbc api 来做批量插入,这个方法性能上是最 好的,也是最快的。
对于上述中的方法1,其基本是思路为:优化hibernate,在配置文件中设置hibernate.jdbc.batch_size参数,来指定每次提交sql的数量;程序上采用分段插入及时清除缓存的方法(session实现了异步write-behind,它允许hibernate显式地写操作的批处理),也就是每插入一定量的数据后及时的把它们从内部缓存中清除掉,释放占用的内存。
设置hibernate.jdbc.batch_size参数,可参考如下配置。
<hibernate-configuration> <session-factory>…… <property name=" hibernate.jdbc.batch_size">50</property>…… <session-factory> <hibernate-configuration>
配置hibernate.jdbc.batch_size参数的原因就是尽量少读数据库,hibernate.jdbc.batch_size参数值越大,读数据库的次数越少,速度越快。从上面的配置可以看出,hibernate是等到程序积累到了50个sql之后再批量提交。
笔者也在想,hibernate.jdbc.batch_size参数值也可能不是设置得越大越好,从性能角度上讲还有待商榷。这要考虑实际情况,酌情设置,一般情形设置30、50就可以满足需求了。
程序实现方面,笔者以插入10000条数据为例子,如
session session=hibernateutil.currentsession(); transatcion tx=session.begintransaction(); for(int i=0;i<10000;i++) { student st=new student(); st.setname("feifei"); session.save(st); if(i%50==0) //以每50个数据作为一个处理单元 { session.flush(); //保持与数据库数据的同步 session.clear(); //清除内部缓存的全部数据,及时释放出占用的内存 } } tx.commit(); ……
在一定的数据规模下,这种做法可以把系统内存资源维持在一个相对稳定的范围。
注意:前面提到二级缓存,笔者在这里有必要再提一下。如果启用了二级缓存,从机制上讲hibernate为了维护二级缓存,我们在做插入、更新、删除操作时,hibernate都会往二级缓存充入相应的数据。性能上就会有很大损失,所以笔者建议在批处理情况下禁用二级缓存。
对于方法2,采用传统的jdbc的批处理,使用jdbc api来处理。
些方法请参照java 批处理自执行sql
看看上面的代码,是不是总觉得有不妥的地方?对,没发现么!这还是jdbc的传统编程,没有一点hibernate味道。
可以对以上的代码修改成下面这样:
transaction tx=session.begintransaction(); //使用hibernate事务处理 connection conn=session.connection(); preparestatement stmt=conn.preparestatement("insert into t_student(name) values(?)"); for(int j=0;j++;j<200){ for(int i=0;i++;j<50) { stmt.setstring(1,"feifei"); } } stmt.executeupdate(); tx.commit(); //使用 hibernate事务处理边界 ……
这样改动就很有hibernate的味道了。笔者经过测试,采用jdbc api来做批量处理,性能上比使用hibernate api要高将近10倍,性能上jdbc 占优这是无疑的。
批量更新与删除hibernate2中,对于批量更新操作,hibernate是将符合要求的数据查出来,然后再做更新操作。批量删除也是这样,先把符合条件的数据查出来,然后再做删除操作。
这样有两个大缺点:
(1):占用大量的内存。
(2):处理海量数据的时候,执行update/delete语句就是海量了,而且一条update/delete语句只能操作一个对象,这样频繁的操作数据库,性能低下应该是可想而知的了。
hibernate3 发布后,对批量更新/删除操作引入了bulk update/delete,其原理就是通过一条hql语句完成批量更新/删除操作,很类似jdbc的批量更新/删除操作。在性能上,比hibernate2的批量更新/删除有很大的提升。
transaction tx=session.beginsession(); string hql="delete student"; query query=session.createquery(hql); int size=query.executeupdate(); tx.commit(); ……
控制台输出了也就一条删除语句hibernate:delete from t_student,语句执行少了,性能上也与使用jdbc相差无几,是一个提升性能很好的方法。当然为了有更好的性能,笔者建议批量更新与删除操作还是使用jdbc,方法以及基本的知识点与上面的批量插入方法2基本相同,这里就不在冗述。
笔者这里再提供一个方法,就是从数据库端来考虑提升性能,在hibernate程序端调用存储过程。存储过程在数据库端运行,速度更快。以批量更新为例,给出参考代码。
首先在数据库端建立名为batchupdatestudent存储过程:
create or replace produre batchupdatestudent(a in number) as begin update student set age=age+1 where age>a; end;
调用代码如下:
transaction tx=session.beginsession(); connection conn=session.connection(); string pd="……{call batchupdatestudent(?)}"; callablestatement cstmt=conn.preparecall(pd); cstmt.setint(1,20); //把年龄这个参数设为20 tx.commit();
观察上面的代码,也是绕过hibernate api,使用 jdbc api来调用存储过程,使用的还是hibernate的事务边界。存储过程无疑是提高批量处理性能的一个好方法,直接运行与数据库端,某种程度上讲把批处理的压力转接给了数据库。
编后语
本文探讨了hibernate的批处理操作,出发点都是在提高性能上考虑了,也只是提供了提升性能的一个小方面。
不管采取什么样的方法,来提升性能都要根据实际的情况来考虑,为用户提供一个满足需求的而且高效稳定的系统才是重中之中。
希望本文所述对大家hibernate程序设计有所帮助。