linux安装spark
2022/4/3 7:19:39
本文主要是介绍linux安装spark,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
一、安装依赖信息
spark版本:spark-3.1.3-bin-hadoop3.2
hadoop版本:hadoop-3.2.1
scala版本:scala-2.11.12 建议3.12版本
下载地址:https://spark.apache.org/downloads.html
二、安装
2.1 单机配置环境
vim ~/.bash_profile
#Spark3 SPARK_HOME=/Users/Robots2/softWare/spark-3.1.3 export PATH="${SPARK_HOME}/bin:${PATH}"
source ~/.bash_profile
2.2 启动spark
命令:cd $SPARK_HOME/sbin
命令: ./start-all.sh
命令:jps
49452 Master
49495 Worker
三、Spark on yarn配置
3.1 Spark上修改spark-env.sh文件
cp spark-env.sh.template spark-env.sh
vim $SPARK_HOME/conf/spark-env.sh
添加如下配置
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop export YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop
3.2 修改hadoop 下的capacity-scheduler.xml文件修改配置保证yarn资源调度按照CPU + 内存模式
<property> <name>yarn.scheduler.capacity.resource-calculator</name> <!-- <value>org.apache.hadoop.yarn.util.resource.DefaultResourceCalculator</value> --> <value>org.apache.hadoop.yarn.util.resource.DominantResourceCalculator</value> </property>
3.3 在hadoop 下 yarn-site.xml开启日志功能
<property> <description>Whether to enable log aggregation</description> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <property> <name>yarn.log.server.url</name> <value>http://master:19888/jobhistory/logs</value> </property>
3.4 修改hadoop下mapred-site.xml
<property> <name>mapreduce.jobhistory.address</name> <value>master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>master:19888</value> </property>
3.5 修改spark 下 spakr-defaults.conf文件
spark.eventLog.dir=hdfs:///user/spark/applicationHistory spark.eventLog.enabled=true spark.yarn.historyServer.address=http://master:18018
3.6 修改spark 下 spark-evn.sh环境变量
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18018 -Dspark.history.fs.logDirectory=hdfs:///user/spark/applicationHistory"
3.7 查看日志
yarn查看日志命令: yarn logs -applicationId <application_1590546538590_0017>
四、启动异常
4.1 ssh配置错误
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh localhost
~/.ssh需要是700权限 (chmod 700 ~/.ssh)
这篇关于linux安装spark的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-12如何创建可引导的 ESXi USB 安装介质 (macOS, Linux, Windows)
- 2024-11-08linux的 vi编辑器中搜索关键字有哪些常用的命令和技巧?-icode9专业技术文章分享
- 2024-11-08在 Linux 的 vi 或 vim 编辑器中什么命令可以直接跳到文件的结尾?-icode9专业技术文章分享
- 2024-10-22原生鸿蒙操作系统HarmonyOS NEXT(HarmonyOS 5)正式发布
- 2024-10-18操作系统入门教程:新手必看的基本操作指南
- 2024-10-18初学者必看:操作系统入门全攻略
- 2024-10-17操作系统入门教程:轻松掌握操作系统基础知识
- 2024-09-11Linux部署Scrapy学习:入门级指南
- 2024-09-11Linux部署Scrapy:入门级指南
- 2024-08-21【Linux】分区向左扩容的方法