特牛生活网

【spark】都有哪些级别的容错或者失败重试?_spark.yarn.maxappattempts-CSDN博客

网友收藏
文章浏览阅读3.8k次,点赞8次,收藏13次。哎,我又来写文章了!最近在看spark源码(照着这本书看的《Spark内核设计的艺术架构设计与实现》),想整理一些东西(一些以前面试被问到的在我脑中没有体系的知识点吧)1、Application级别的容错spark.yarn.maxAppAttempts如果没有手动配置这个参数,那就会使用集群的默认值yarn.resourcemanager.am.max-attempts,默认是2,这是hadoop的yarn-site.xml里面配置的,当然spark.yarn.maxAppAttem._spark.yarn.maxappattempts