anaconda , hadoop,spark 安装流程
2021/4/8 10:10:11
本文主要是介绍anaconda , hadoop,spark 安装流程,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
约定环境 ubantu
约定安装路径:/usr/local
一,安装anaconda
# 下载地址:https://repo.anaconda.com/archive/ 注意:spark 暂时不支持 python3.8, 所以要注意anaconda 中内置python 的版本.
二,JDK1.8 安装
三,配置ssh 免密码登陆
四,安装hadoop
五,安装scala
六,安装spark
这篇关于anaconda , hadoop,spark 安装流程的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-07-07Dify + TiDB Vector,快速构建你的AI Agent
- 2024-07-06有没有什么开源的py项目可以对图像进行分类-icode9专业技术文章分享
- 2024-07-05feign默认connecttimeout和readtimeout是多少-icode9专业技术文章分享
- 2024-07-05idea控制台,日志太多,导致部分想看得日志被刷走 搜不到-icode9专业技术文章分享
- 2024-07-05The server selected protocol version Tls10 is not accepted by client preferences [TLs12]-icode9专业技术文章分享
- 2024-07-05怎么清理项目缓存-icode9专业技术文章分享
- 2024-07-04安装 Eyoucms详细图文教程-icode9专业技术文章分享
- 2024-07-04ueditor 复制文章时,图片的链接是一个下载图片地址,该如何处理?-icode9专业技术文章分享
- 2024-07-04怎样判断host有没有对wordpress有缓存呢-icode9专业技术文章分享
- 2024-07-04具有编译功能的系统make后,无法ssh连接-icode9专业技术文章分享