- 链接地址:https://blog.csdn.net/mn_kw/article/details/81111520#comments_20019215
- 链接标题:spark算子调优 使用repartition解决Spark SQL降低并行度的性能问题_spark3.3.1 dataframe.rdd.repartition 并发降低为1-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:6653
文章浏览阅读1w次。设置的并行度,在哪些情况下会生效?哪些情况下不会生效?如果你压根没有使用sparkSQL(DataFrame),那么你整个spark application默认所偶stage的并行度都是你设置的那个参数,(除非你使用coalesce算子缩减过partition数量) 问题来了,用spark sql的那个stage的并行度,你没法自己指定,spark sql自己会默认根据hive表对应的..._spark3.3.1 dataframe.rdd.repartition 并发降低为1
版权声明:本文发布于特牛生活网 内容均来源于互联网 如有侵权联系删除