欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  网络运营

Apache Spark 2.0 在作业完成时却花费很长时间结束

程序员文章站 2022-03-20 13:51:08
现象 大家在使用 apache spark 2.x 的时候可能会遇到这种现象:虽然我们的 spark jobs 已经全部完成了,但...

现象

大家在使用 apache spark 2.x 的时候可能会遇到这种现象:虽然我们的 spark jobs 已经全部完成了,但是我们的程序却还在执行。比如我们使用 spark sql 去执行一些 sql,这个 sql 在最后生成了大量的文件。然后我们可以看到,这个 sql 所有的 spark jobs 其实已经运行完成了,但是这个查询语句还在运行。通过日志,我们可以看到 driver 节点正在一个一个地将 tasks 生成的文件移动到最终表的目录下面,当我们作业生成的文件很多的情况下,就很容易产生这种现象。本文将给大家介绍一种方法来解决这个问题。

为什么会造成这个现象

spark 2.x 用到了 hadoop 2.x,其将生成的文件保存到 hdfs 的时候,最后会调用了 saveashadoopfile,而这个函数在里面用到了 fileoutputcommitter,如下:

Apache Spark 2.0 在作业完成时却花费很长时间结束

问题就出在了 hadoop 2.x 的 fileoutputcommitter 实现fileoutputcommitter 里面有两个值得注意的方法:committask 和 commitjob。在 hadoop 2.x 的fileoutputcommitter 实现里面,mapreduce.fileoutputcommitter.algorithm.version 参数控制着 committask 和 commitjob 的工作方式。具体代码如下(为了说明方便,我去掉了无关紧要的语句,完整代码可以参见 fileoutputcommitter.java):

Apache Spark 2.0 在作业完成时却花费很长时间结束

大家可以看到 committask 方法里面,有个条件判断 algorithmversion == 1,这个就是 mapreduce.fileoutputcommitter.algorithm.version 参数的值,默认为1;如果这个参数为1,那么在 task 完成的时候,是将 task 临时生成的数据移到 task 的对应目录下,然后再在 commitjob 的时候移到最终作业输出目录,而这个参数,在 hadoop 2.x 的默认值就是 1!这也就是为什么我们看到 job 完成了,但是程序还在移动数据,从而导致整个作业尚未完成,而且最后是由 spark 的 driver 执行 commitjob 函数的,所以执行的慢也是有到底的。

而我们可以看到,如果我们将 mapreduce.fileoutputcommitter.algorithm.version 参数的值设置为 2,那么在 committask 执行的时候,就会调用 mergepaths 方法直接将 task 生成的数据从 task 临时目录移动到程序最后生成目录。而在执行 commitjob 的时候,直接就不用移动数据了,自然会比默认的值要快很多。

注意,其实在 hadoop 2.7.0 之前版本,我们可以将 mapreduce.fileoutputcommitter.algorithm.version 参数设置为非1的值就可以实现这个目的,因为程序里面并没有限制这个值一定为2,。不过到了 hadoop 2.7.0,mapreduce.fileoutputcommitter.algorithm.version 参数的值必须为1或2,具体参见 mapreduce-4815。

怎么在 spark 里面设置这个参数

问题已经找到了,我们可以在程序里面解决这个问题。有以下几种方法:

  • 直接在 conf/spark-defaults.conf 里面设置 spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version 2,这个是全局影响的。
  • 直接在 spark 程序里面设置,spark.conf.set("mapreduce.fileoutputcommitter.algorithm.version", "2"),这个是作业级别的。
  • 如果你是使用 dataset api 写数据到 hdfs,那么你可以这么设置 dataset.write.option("mapreduce.fileoutputcommitter.algorithm.version", "2")。

不过如果你的 hadoop 版本为 3.x,mapreduce.fileoutputcommitter.algorithm.version 参数的默认值已经设置为2了,具体参见 mapreduce-6336 和 mapreduce-6406。

因为这个参数对性能有一些影响,所以到了 spark 2.2.0,这个参数已经记录在 spark 配置文档里面了 configuration.html,具体参见 spark-20107。

总结

以上所述是小编给大家介绍的apache spark 2.0 在作业完成时却花费很长时间结束,希望对大家有所帮助!