anaconda , hadoop,spark 安装流程
2021/4/8 10:10:11
本文主要是介绍anaconda , hadoop,spark 安装流程,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
约定环境 ubantu
约定安装路径:/usr/local
一,安装anaconda
# 下载地址:https://repo.anaconda.com/archive/ 注意:spark 暂时不支持 python3.8, 所以要注意anaconda 中内置python 的版本.
二,JDK1.8 安装
三,配置ssh 免密码登陆
四,安装hadoop
五,安装scala
六,安装spark
这篇关于anaconda , hadoop,spark 安装流程的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-12-25安卓NDK 是什么?-icode9专业技术文章分享
- 2024-12-25caddy 可以定义日志到 文件吗?-icode9专业技术文章分享
- 2024-12-25wordfence如何设置密码规则?-icode9专业技术文章分享
- 2024-12-25有哪些方法可以实现 DLL 文件路径的管理?-icode9专业技术文章分享
- 2024-12-25错误信息 "At least one element in the source array could not be cast down to the destination array-icode9专业技术文章分享
- 2024-12-25'flutter' 不是内部或外部命令,也不是可运行的程序 或批处理文件。错误信息提示什么意思?-icode9专业技术文章分享
- 2024-12-25flutter项目 as提示Cannot resolve symbol 'embedding'提示什么意思?-icode9专业技术文章分享
- 2024-12-24怎么切换 Git 项目的远程仓库地址?-icode9专业技术文章分享
- 2024-12-24怎么更改 Git 远程仓库的名称?-icode9专业技术文章分享
- 2024-12-24更改 Git 本地分支关联的远程分支是什么命令?-icode9专业技术文章分享