欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

java8——并行数据处理与性能

程序员文章站 2024-03-14 17:39:58
...

前言

在Java7之前,并行处理数据集合非常麻烦。第一,你得明确地把包含数据的数据结构分若干子部分;第二,你要给每个字部分分配一个独立的线程。第三,你需要在恰当的时候对它们进行同步来避免不希望出现的竞争条件,等待所有线程完成,最后把这些部分结果合并起来。Java7引入了一个叫做分支/合并的框架,让这些操作更稳定、更不易出错。在Java8中,你可以通过Stream接口如何让你不用太费力气就能对数据集执行并行操作。它允许你声明性地将顺序流变为并行流。实际地来说,流时在幕后应用Java7引入的分支/合并的框架。

将流转化为并行流

使用并行流的关键在于对顺序流调用parallel方法:

public static long parallelSum(long n) {
        return Stream.iterate(1L, i -> i + 1)
                     .limit(n)
                     .parallel()//将流转换为并行流
                     .reduce(0L, Long::sum);
}

使用parallel()方法将stream在内部分成几块,分别独立并行进行归纳操作,同一个归纳操作会将各个子流的部分归纳结果合并起来,得到整个原始流的归纳结果。

java8——并行数据处理与性能

注意,parallel方法并不以为这流本身有任何实际的变化,它在内部实际上就是设置了一个boolean标志,表示你想让调用parallel之后进行的所有操作都并行执行。类似地,你只需要对并行流调用sequential方法就可以把它变成顺序流。你可能以为把这两个方法结合起来,就可以更细化地控制在遍历流时哪些操作要并行执行,哪些要顺序执行。

stream.parallel().filter(...).sequential().map(...).parallel().reduce();

但最后一次parallel或sequential调用会影响整个流水线,也就是说在上面的例子中,流水线会并行执行。

并行流内部使用的线程从哪里来呢?
并行流内部使用了默认的ForkJoinPool,它默认的线程数量就是你的处理器数量,这个值是由Runtime.getRuntime().available-Processors()得到的。但是你可以通过系统属性java.util.concurrent.ForkJoinPool.common.parallelism来改变线程池大小,如下:
System.setProperty("java.util.concurrent.ForkJoinPool.common.parallelism","12");
这是一个全年设置,因此它将影响代码中所有的并行流。返过来说,目前还无法专为某个并行流指定这个值。一般而言,让ForkHoinpool的大小等于处理器数量是个不错的默认值。

尽管并行能够提高数据处理效率,但它也并不是没有代价的,并行化过程本身需要对流做递归划分,把每个子流的归纳操作分配到不同的线程,然后把这些操作的结果合并成一个值。但在多个内核之间移动数据的代价也可能比你想的要大,座椅很重要的一点是要保证在内核中并行执行工作的时间比在内核之间传输数据的时间长。总而言之,很多情况下不可能或不方便并行化。

如何高效的使用并行流

  1. 留意装箱。自动装箱和拆箱操作会大大降低性能。Java8 中有原始类型流(IntStream, LongStream, DoubleStream)来避免这种操作。
  2. 有些操作本身在并行流上的性能就比顺序流差,特别是limit和findFirst等依赖于元素顺序的操作,它们在并行流上执行的代价非常大。例如:findAny会比findFirst性能好,因为它不一定要顺序来执行。你总是可以调用unordered方法来把有序流变成无序流。那么,如果你需要流中的n个元素而不是专门要前n个的话,对无需并行流调用limit可能会比单个有序流更搞笑
  3. 还要考虑流的操作流水线的总计算成本。设N是要处理的元素的总数,Q是一个元素通过流水线的大致处理成本,则N*Q就是这个对成本的一个粗略的定性估计。Q值较高就意味着使用并行流时性能好的可能性比较大。
  4. 对于较小的数据量,选择并行流几乎从来都不是一个好的决定,并行处理少数几个元素的好处还抵不上并行化造成的额外开销。
  5. 要考虑流背后的数据结构是否易于分解。例如,ArrayList的拆分效率比LinkedList高得多,因为前者用不着遍历就可以平均拆分,而后者则必须遍历。另外,用range工厂方法创建的原始类型流也可以快速分解。
  6. 流自身的特点,以及流水线中的中间操作修改流的方式,都可能会改变分解过程的性能。例如:一个sized流可以分成大小相等的两部分,这样每个部分都可以比较搞笑地并行处理,但筛选操作可能丢弃的元素个数却无法预测,导致流本身的大小未知。
  7. 还要考虑中断操作中合并步骤的代价是大是小(例如Collector中的combiner方法)。如果这一步地阿基啊很大,那么组合每个子流产生的部分结果所付出的代价就可能会超过通过并行流得到的性能提升。

流的数据源和可分解性:

可分解性
ArrayList 极佳
LinkedList
IntStream.range 极佳
Stream.iterate
HashSet
TreeSet

项目合并框架

分支/合并框架的目的是以递归方式将可以并行的任务拆分成更小的任务,然后将每个子任务的结果合并起来生成整体结果。它是ExecutorService接口的一个实现,它把子任务分配给线程池(称为ForkJoinPool)中的工作线程。

使用RecursiveTask

要把任务提交到这个池,必须创建RecursiveTask的一个子类,其中R是并行化任务 (以及所有子任务)产生的结果类型,或者如果任务不返回结果,则是RecursiveAction类型(当然它可能会更新其他非局部机构)。要定义RecursiveTask, 只需实现它唯一的抽象方法

compute:
     protected abstract R compute();

这个方法同时定义了将任务拆分成子任务的逻辑,以及无法再拆分或不方便再拆分时,生成单个子任务结果的逻辑。正由于此,这个方法的实现类似于下面的伪代码:
if (任务足够小或不可分) {
顺序计算该任务
} else {
将任务分成两个子任务
递归调用本方法,拆分每个子任务,等待所有子任务完成
合并每个子任务的结果
}
java8——并行数据处理与性能
注意在实际应用时,使用多个ForkJoinPool是没有什么意义的。正是出于这个原因,一般来说把它实例化一次,然后把实例保存在静态字段中,使之成为单例,这样就可以在软件中任何部分方便地重用了。这里创建时用了其默认的无参数构造函数,这意味着想让线程池使用JVM能够使用的所有处理器。更确切地说,该构造函数将使用Runtime.availableProcessors的返回值来决定线程池使用的线程数。请注意availableProcessors方法虽然看起来是处理器,但它实际上返回的是可用内核的数量,包括超线程生成的虚拟内核。

java8——并行数据处理与性能

使用分支/合并框架的最佳做法

对一个任务调用join方法会阻塞调用方,直到该任务做出结果。因此,有必要在两个子任务的计算都开始之后再调用它。否则,你得到的版本会比原始的顺序算法更慢更复杂,因为每个子任务都必须等待另一个子任务完成才能启动。
不应该在RecursiveTask内部使用ForkJoinPool的invoke方法。相反,你应该始终直接调用compute或fork方法,只有顺序代码才应该用invoke来启动并行计算。
对子任务调用fork方法可以把它排进ForkJoinPool。同时对左边和右边的子任务调用它似乎很自然,但这样做的效率要比直接对其中一个调用compute低。这样做你可以为其中一个子任务重用同一线程,从而避免在线程池中多分配一个任务造成的开销。
调试使用分支/合并框架的并行计算可能有点棘手。特别是你平常都在你喜欢的IDE里面看栈跟踪(stack trace)来找问题,但放在分支合并计算上就不行了,因为调用compute的线程并不是概念上的调用方,后者是调用fork的那个。
和并行流一样,你不应理所当然地认为在多核处理器上使用分支/合并框架就比顺序计算快。我们已经说过,一个任务可以分解成多个独立的子任务,才能让性能在并行化时有所提升。所有这些子任务的运行时间都应该比分出新任务所花的时间长;一个惯用方法是把输入/输出放在一个子任务里,计算放在另一个里,这样计算就可以和输入/输出同时进行。此外,在比较同一算法的顺序和并行版本的性能时还有别的因素要考虑。就像任何其他Java代码一样,分支/合并框架需要“预热”或者说要执行几遍才会被JIT编译器优化。这就是为什么在测量性能之前跑几遍程序很重要,我们的测试框架就是这么做的。同时还要知道,编译器内置的优化可能会为顺序版本带来一些优势(例如执行死码分析——删去从未被使用的计算) 。

分支/合并框架工程用一种称为工作窃取的技术来解决任务的平均分配,在实际情况下, 任务差不多被平均分配到ForkJoinPool中的所有线程上。每个线程都为分
配给它的任务保存一个双向链式队列,每完成一个任务,就会从队列头上取出下一个任务开始执行。基于各种原因。如:划分策略效率低,或者不可知原因,如磁盘访问慢,或是需要和外部服务协调执行等问题,摸个线程可能早早完成了分配给它的所有任务,也就是它的队列已经空了,而其他的线程还在忙。这时,这个线程并没有空闲下来,而是随机选了一个别的线程,从队列的尾巴上“偷走”一个任务。这个过程一直持续下去直到所有的任务都执行完毕,所有的队列都清空了。这有助于更好地在工作线程之间平均负载。
java8——并行数据处理与性能

流的自动拆分机制Spliterator

Spliterator是Java 8中加入的另一个新接口;这个名字代表“可分迭代器”(splitableiterator) 。和Iterator一样, Spliterator也用于遍历数据源中的元素,但它是为了并行执行而设计的。虽然在实践中可能用不着自己开发Spliterator,但了解一下它的实现方式会让你对并行流的工作原理有更深入的了解。 Java 8已经为集合框架中包含的所有数据结构提供了一个默认的Spliterator实现。集合实现了Spliterator接口,接口提供了一个spliterator方法。这个接口定义了若干方法,如下面的代码清单所示。

public interface Spliterator<T> {
        boolean tryAdvance(Consumer<? super T> action);
        Spliterator<T> trySplit();
        long estimateSize();
        int characteristics();
}

T是Spliterator遍历的元素的类型。 tryAdvance方法的行为类似于普通的Iterator,因为它会按顺序一个一个使用Spliterator中的元素,并且如果还有其他元素要遍历就返回true。但trySplit是专为Spliterator接口设计的,因为它可以把一些元素划出去分给第二个Spliterator(由该方法返回),让它们两个并行处理。 Spliterator还可通过estimateSize方法估计还剩下多少元素要遍历,因为即使不那么确切,能快速算出来是一个值也有助于让拆分均匀一点。

拆分过程

将Stream拆分成多个部分的算法是一个递归过程。第一步是对第一个Spliterator调用trySplit,生成第二个Spliterator。第二步对这两个Spliterator调用trysplit,这样总共就有了四个Spliterator。这个框架不断对Spliterator调用trySplit直到它返回null,表明它处理的数据结构不能再分割,如第三步所示。最后,这个递归拆分过程到第四步就终止了,这时所有的Spliterator在调用trySplit时都返回了null。
java8——并行数据处理与性能
这个拆分过程也受Spliterator本身的特性影响,而特性是通过characteristics方法声明的。

Spliterator的特性

Spliterator接口声明的最后一个抽象方法是characteristics,它将返回一个int,代表Spliterator本身特性集的编码。使用Spliterator的客户可以用这些特性来更好地控制和优化它的使用。表7-2总结了这些特性。(不幸的是,虽然它们在概念上与收集器的特性有重叠,编码却不一样。)
java8——并行数据处理与性能

相关标签: java java8