spark安装部署 |
您所在的位置:网站首页 › spark官方下载 › spark安装部署 |
一、安装Spark集群环境
1.上传spark-2.4.5-bin-without-hadoop-scala-2.12文件到master节点的:/home目录下: 2.登录master节点,解压缩Spark安装部署文件到/opt目录下,并修改文件夹名称为:spark cd /home tar -zxvf spark-2.4.5-bin-without-hadoop-scala-2.12.tgz -C /opt/修改/opt/spark-2.4.5-bin-without-hadoop-scala-2.12/目录名称为spark: cd /opt mv spark-2.4.5-bin-without-hadoop-scala-2.12/ spark3.为集群所有节点配置相同的环境变量(master,slave1和slave2节点的环境变量): vi /etc/profile进入编辑状态,添加如下内容: export SPARK_HOME=/opt/spark export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
4.登录master节点,修改Spark配置文件-1: 进入:/opt/spark/conf目录下,开始配置文件spark-defaults.conf(系统没有提供spark-defaults.conf文件,需要从spark-defaults.conf.template文件拷贝一份) cd /opt/spark/conf cp spark-defaults.conf.template spark-defaults.conf vi spark-defaults.conf添加如下配置: spark.master spark://master:7077
5.修改Spark配置文件-2 进入:/opt/spark/conf目录下,开始配置文件spark-env.sh(系统没有提供spark-env.sh文件,需要从spark-env.sh.template文件拷贝一份) cd /opt/spark/conf cp spark-env.sh.template spark-env.sh vi spark-env.sh添加如下配置: export JAVA_HOME=/opt/jdk1.8.0_171/ export HADOOP_HOME=/opt/hadoop-2.9.2/ export HADOOP_CONF_DIR=/opt/hadoop-2.9.2/etc/hadoop export SPARK_DIST_CLASSPATH=$(/opt/hadoop-2.9.2/bin/hadoop classpath) export SPARK_MASTER_HOST=master export SPARK_MASTER_PORT=7077注:这里的jdk和hadoop版本号以及路径都要和自己的的对应 6.修改Spark配置文件(系统没有提供slaves文件,需要从slaves.template文件拷贝一份): cp slaves.template slaves vi slaves#添加以下内容: slave1 slave2
7.登录master节点,分发配置好的spark文件到slave1和slave2节点上: scp -r /opt/spark root@slave1:/opt/ scp -r /opt/spark root@slave2:/opt/
三、开始启动Spark 1.登录master节点,开始启动Spark: cd /opt/spark/sbin ./start-all.sh2.通过jps查看是否存在spark的相关进程: 3.在slave1和slave2节点上通过jps命令都能看到worker进程: slave1:
slave2:
4.打开浏览器,输入: http://192.168.41.110:8080/
四、测试Spark-shell启动: cd /opt/spark/bin/ ./spark-shell本实验完成! |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |