特牛生活网

spark入门实战windows本地测试程序_spark-assembly-1.6.0-hadoop2.6.0.jar maven-CSDN博客

网友收藏
文章浏览阅读9.8k次。在做Spark开发时,一般会在windows下进行Spark本地模式程序调试,在本地调试好了再打包运行在Spark集群上。因此需要在windows上进行Spark开发配置。本文将给出三种开发工具的配置:1、使用eclipse java api开发;2、使用scala IDE开发;3、使用IntelliJ IDEA 开发。1、windows下环境在安装开发软件之前,首先需要安装JAVA 和S_spark-assembly-1.6.0-hadoop2.6.0.jar maven