spark Caused by: java.lang.OutOfMemoryError: Java heap space 问题
程序员文章站
2022-03-04 13:37:21
...
问题描述:
在使用spark过程中,有时会因为数据增大,而出现下面两种错误:
java.lang.OutOfMemoryError: Java heap space
java.lang.OutOfMemoryError:GC overhead limit exceeded
问题分析:
原因一:executor内存不够
原因二:driver内存不够
解决方法
方法一
在spark-submit中指定 --driver-memory memSize参数来设定driver的jvm内存大小,--executor-memory memSize指定executor的内存大小,可以通过spark-submit --help查看其他可以设置的参数。
方法二
在spark_home/conf/目录中,将spark-defaults.conf.template模板文件拷贝一份到/spark_home/conf目录下,命名为spark-defaults.conf,然后在里面设置spark.driver.memory memSize属性来改变driver内存大小,设置spark.executor.memory memSize属性来改变executor内存大小。
推荐阅读
-
ES内存溢出,报错:java.lang.OutOfMemoryError: Java heap space
-
java.lang.OutOfMemoryError: Java heap space 解决方法
-
java.lang.OutOfMemoryError: Java heap space解决方案
-
java.lang.OutOfMemoryError: Java heap space解决方法:即就该内存大小
-
java.lang.OutOfMemoryError: Java heap space 报错实例
-
java.lang.OutOfMemoryError: Java heap space
-
模拟实战排查堆内存溢出(java.lang.OutOfMemoryError: Java heap space)问题
-
Java heap space 问题查找
-
读写文件时内存溢出问题思考(OutOfMemoryError: Java heap space)
-
Java heap space 问题查找