特牛网址导航

Spark执行过程出现outofmemory错误的解决方案_sparkoutofmemory-CSDN博客

网友收藏
文章浏览阅读5k次。进入Spark的conf目录,找到spark-env.sh文件,添加如下值:export SPARK_WORKER_MEMORY=4gexport SPARK_WORKER_INSTANCES=2export SPARK_EXECUTOR_MEMORY=4gexport SPARK_DRIVER_MEMORY=4gexport SPARK_JAVA_OPTS="-Xms2048m -X_sparkoutofmemory
标签:sparkoutofmemory