Spark安装与配置(单机版)(保姆级教程)
2021/12/6 23:20:48
本文主要是介绍Spark安装与配置(单机版)(保姆级教程),对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
Spark简述:
Spark:快速通用的大规模数据处理引擎,特点是速度快,易使用。
Spark安装前准备工作:
1、安装配置好jdk,如果不会安装可以跳转到脚本安装jdk保姆级教程
2、搭建配置好Hadoop,如果不会配置安装可以跳转到Hadoop配置保姆级教程
3、安装好Scala,如果不会安装可以跳转到Linux下安装配置Scala保姆级教程
Spark安装步骤:
1、通过xftp将spark安装包上传到Linux中,版本是spark-2.4.5-bin-hadoop2.6.tgz
2、解压缩tar -zxf spark-2.4.5-bin-hadoop2.6.tgz -C ../soft/
3、为了方便以后使用,将解压缩后的文件夹修改名字mv spark-2.4.5-bin-hadoop2.6/ spark245
4、配置环境变量vim /etc/profile
#spark export SPARK_HOME=/opt/soft/spark245 export PATH=$PATH:$SPARK_HOME/bin
5、首先先做个备份 cp spark-env.sh.template spark-env.sh
然后修改配置文件,在最后添加如下代码
export JAVA_HOME=/opt/soft/jdk180 export SCALA_HOME=/opt/soft/scala211 export SPARK_HOME=/opt/soft/spark245 export HADOOP_INSTALL=/opt/soft/hadoop260 export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop export SPARK_MASTER_IP=nnode1 export SPARK_DRIVER_MEMORY=2G export SPARK_EXECUTOR_MEMORY=2G export SPARK_LOCAL_DIRS=/opt/soft/spark245
6、因为是单机版,不需要去配置slaves,但是也可以配置一下,cp slaves.template slaves
先做个备份,然后vim slaves
,将localhost修改为自己的主机名
7、启动/关闭spark,进入到sbin目录下,看到有很多的命令,spark也有start-all.sh和stop-all.sh命令,所以直接./用就行了。
8、打开浏览器,输入主机名:8080就可以看到spark的可视化页面了
至此,spark单机版安装配置完成了~
这篇关于Spark安装与配置(单机版)(保姆级教程)的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-16Maven资料入门指南
- 2024-11-16Maven资料入门教程
- 2024-11-16MyBatis Plus资料:新手入门教程与实践指南
- 2024-11-16MyBatis-Plus资料入门教程:快速上手指南
- 2024-11-16Mybatis资料入门教程:新手必看指南
- 2024-11-16MyBatis资料详解:新手入门与初级实战指南
- 2024-11-16MyBatisPlus资料:初学者入门指南与实用教程
- 2024-11-16MybatisPlus资料详解:初学者入门指南
- 2024-11-16MyBatisX资料:新手入门与初级教程
- 2024-11-16RESTful接口资料详解:新手入门指南