- 链接地址:https://blog.csdn.net/lsr40/article/details/106931464
- 链接标题:【spark】都有哪些级别的容错或者失败重试?_spark.yarn.maxappattempts-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:3346
文章浏览阅读3.8k次,点赞8次,收藏13次。哎,我又来写文章了!最近在看spark源码(照着这本书看的《Spark内核设计的艺术架构设计与实现》),想整理一些东西(一些以前面试被问到的在我脑中没有体系的知识点吧)1、Application级别的容错spark.yarn.maxAppAttempts如果没有手动配置这个参数,那就会使用集群的默认值yarn.resourcemanager.am.max-attempts,默认是2,这是hadoop的yarn-site.xml里面配置的,当然spark.yarn.maxAppAttem._spark.yarn.maxappattempts
版权声明:本文发布于特牛生活网 内容均来源于互联网 如有侵权联系删除