欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

java读取大文件内容(手把手教你java处理超大csv文件)

程序员文章站 2022-09-14 19:30:43
前言我最近在优化我的pdf转word的开源小工具,有时候会遇到一个问题,就是如果我的pdf文件比较大,几百兆,如何更快更节省内存的读取它。于是我分析对比了四种常见的读取文件的方式,并使用javavis...

前言

我最近在优化我的pdf转word的开源小工具,有时候会遇到一个问题,就是如果我的pdf文件比较大,几百兆,如何更快更节省内存的读取它。于是我分析对比了四种常见的读取文件的方式,并使用javavisualvm工具进行了分析。最后得出的结论是commons-io时间和空间都更加的高效。研究分析依然来自哪位baeldung国外大佬。

下面我会给出几种常见的读取大文件的方式。

读取大文件的四种方式

首先我自己在本地压缩了一个文件夹,大概500m左右。虽然不是很大但是,相对还可以。

方法1:guava读取

string path = "g:\java书籍及工具.zip";
files.readlines(new file(path), charsets.utf_8);

使用guava读取比较简单,一行代码就搞定了。

下面去jdk的bin目录找到javavisualvm工具,然后双击运行即可。

java读取大文件内容(手把手教你java处理超大csv文件)

从上图可以看到:

时间消耗:20秒

堆内存:最高2.5g

cpu消耗:最高50%

我们一个500m的文件,堆内存最高竟然2.5g,如果我们读取一个2g的文件,可能我们的电脑直接死机了就。

方式2:apache commons io普通方式

string path = "g:\java书籍及工具.zip";
fileutils.readlines(new file(path), charsets.utf_8);

这种方式也比较简单,同样是一行代码。下面运行,也分析一波:

java读取大文件内容(手把手教你java处理超大csv文件)

从上图可以看到:

时间消耗:17秒

堆内存:最高2.5g

cpu消耗:最高50%,平稳运行25%左右

这种方式和上面那种基本上消耗差不多,肯定不是我想要的。

方式3:java文件流

fileinputstream inputstream = null;
scanner sc = null;
try {
     inputstream = new fileinputstream(path);
     sc = new scanner(inputstream, "utf-8");
     while (sc.hasnextline()) {
          string line = sc.nextline();
          //system.out.println(line);
     }
     if (sc.ioexception() != null) {
          throw sc.ioexception();
     }
} finally {
     if (inputstream != null) {
          inputstream.close();
     }
     if (sc != null) {
           sc.close();
     }
}

这种方式其实就是java中最常见的方式,然后我们运行分析一波:

java读取大文件内容(手把手教你java处理超大csv文件)

从上图可以看到:

时间消耗:32秒,增加了一倍

堆内存:最高1g,少了一半

cpu消耗:平稳运行25%左右

这种方式确实很优秀,但是时间上开销更大。

方式4:apache commons io流

lineiterator it = fileutils.lineiterator(new file(path), "utf-8");
try {
      while (it.hasnext()) {
          string line = it.nextline();
      }
} finally {
     lineiterator.closequietly(it);
}

这种方式代码看起来比较简单,所以直接运行一波吧:

java读取大文件内容(手把手教你java处理超大csv文件)

从上图可以看到:

时间消耗:16秒,最低

堆内存:最高650m,少了一半

cpu消耗:平稳运行25%左右

ok,就它了,牛。

结论

通过以上的分析,我们可以得出一个结论,如果我们想要读取一个大文件,选择了错误的方式,就有可能极大地占用我的内存和cpu,当文件特别大时,会造成意向不到的问题。

因此为了去解决这样的问题,有四种常见的读取大文件的方式。通过分析对比,发现,apache commons io流是最高效的一种方式。