- 链接地址:https://blog.csdn.net/qq_42160456/article/details/116982422
- 链接标题:Spark运行流程_如何在spark上并行运行exe-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:5561
文章浏览阅读2.8k次。1、任务调度流程1、当一个spark任务提交的时候,首先需要为spark application创建基本的运行环境,也就是在Driver创建sparkContext,同时构建DAGScheduler和TaskScheduler2、SparkContext向资源管理器申请exector运行资源3、资源管理器为exector分配资源并创建exector进程,exector的运行状况通过心跳机制向资源管理器进行汇报4、sparkContext根据RDD的依赖关系构建DAG图,构建完毕后,将DAG图提交给_如何在spark上并行运行exe
版权声明:本文发布于特牛生活网 内容均来源于互联网 如有侵权联系删除