- 链接地址:https://blog.csdn.net/hetianguang/article/details/51690188
- 链接标题:spark入门实战windows本地测试程序_spark-assembly-1.6.0-hadoop2.6.0.jar maven-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:6188
文章浏览阅读9.8k次。在做Spark开发时,一般会在windows下进行Spark本地模式程序调试,在本地调试好了再打包运行在Spark集群上。因此需要在windows上进行Spark开发配置。本文将给出三种开发工具的配置:1、使用eclipse java api开发;2、使用scala IDE开发;3、使用IntelliJ IDEA 开发。1、windows下环境在安装开发软件之前,首先需要安装JAVA 和S_spark-assembly-1.6.0-hadoop2.6.0.jar maven
版权声明:本文发布于特牛生活网 内容均来源于互联网 如有侵权联系删除