完美解决java读取大文件内存溢出的问题
程序员文章站
2024-02-21 12:29:16
1. 传统方式:在内存中读取文件内容
读取文件行的标准方式是在内存中读取,guava 和apache commons io都提供了如下所示快速读取文件行的方法:...
1. 传统方式:在内存中读取文件内容
读取文件行的标准方式是在内存中读取,guava 和apache commons io都提供了如下所示快速读取文件行的方法:
files.readlines(new file(path), charsets.utf_8); fileutils.readlines(new file(path));
实际上是使用bufferedreader或者其子类linenumberreader来读取的。
传统方式的问题: 是文件的所有行都被存放在内存中,当文件足够大时很快就会导致程序抛出outofmemoryerror 异常。
问题思考:我们通常不需要把文件的所有行一次性地放入内存中,相反,我们只需要遍历文件的每一行,然后做相应的处理,处理完之后把它扔掉。所以我们可 以通过行迭代方式来读取,而不是把所有行都放在内存中。
2. 大文件读取处理方式
不重复读取与不耗尽内存的情况下处理大文件:
(1)文件流方式:使用java.util.scanner类扫描文件的内容,一行一行连续地读取
fileinputstream inputstream = null; scanner sc = null; try { inputstream = new fileinputstream(path); sc = new scanner(inputstream, utf-8); while (sc.hasnextline()) { string line = sc.nextline(); // system.out.println(line); } }catch(ioexception e){ logger.error(e); }finally { if (inputstream != null) { inputstream.close(); } if (sc != null) { sc.close(); } }
该方案将会遍历文件中的所有行,允许对每一行进行处理,而不保持对它的引用。总之没有把它们存放在内存中!
(2)apache commons io流:使用commons io库实现,利用该库提供的自定义lineiterator
lineiterator it = fileutils.lineiterator(thefile, utf-8); try { while (it.hasnext()) { string line = it.nextline(); // do something with line } } finally { lineiterator.closequietly(it); }
该方案由于整个文件不是全部存放在内存中,这也就导致相当保守的内存消耗。
以上这篇完美解决java读取大文件内存溢出的问题就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。