- 链接地址:https://blog.csdn.net/cr7258/article/details/120636264
- 链接标题:Spark 系列教程(2)运行模式介绍_spark节点 spark节点分别支持sql、pyspark、scala三种方式执行后编写代码即可-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:2517
文章浏览阅读647次。Spark 运行模式Apache Spark 是用于大规模数据处理的统一分析引擎,它提供了 Java、Scala、Python 和 R 语言的高级 API,以及一个支持通用的执行图计算的优化引擎。Spark Core 是 Spark 的核心模块,负责任务调度、内存管理等功能。Spark Core 的实现依赖于 RDD(Resilient Distributed Datasets,弹性分布式数据集)的程序抽象概念。在 Spark Core 的基础上,Spark 提供了一系列面向不同应用需求的组件,包括使_spark节点 spark节点分别支持sql、pyspark、scala三种方式执行后编写代码即可
版权声明:本文发布于特牛网址导航 内容均来源于互联网 如有侵权联系删除