- 链接地址:https://blog.csdn.net/duyun0/article/details/124795099
- 链接标题:Spark安装部署Local_pyspark_python和 java_home 需要同样配置在: `/root/.bashrc`-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:5828
文章浏览阅读277次,点赞2次,收藏2次。生命无罪,健康万岁,我是laity。以下操作都是基于你已经把hadoop集群搭建好了的情况下Spark的运行模式上面的部署安装属于(本地模式)Local部署Spark的架构角色个人认为很重要 - 方便理解Spark和YARNPython环境部署我们用的python环境是Anaconda3# 1.将`Anaconda3-2021.05-Linux-x86_64.sh`文件到Linux服务器上# 2.安装到 /opt/laityInstall 下 sh ./Anaconda_pyspark_python和 java_home 需要同样配置在: `/root/.bashrc`中
版权声明:本文发布于特牛网址导航 内容均来源于互联网 如有侵权联系删除