anaconda , hadoop,spark 安装流程

2021/4/8 10:10:11

本文主要是介绍anaconda , hadoop,spark 安装流程,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

约定环境 ubantu

约定安装路径:/usr/local


一,安装anaconda

# 下载地址:https://repo.anaconda.com/archive/
注意:spark 暂时不支持 python3.8, 所以要注意anaconda 中内置python 的版本.






二,JDK1.8 安装

三,配置ssh 免密码登陆

四,安装hadoop

五,安装scala

六,安装spark



这篇关于anaconda , hadoop,spark 安装流程的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程