(超详细版) Linux下安装配置Hadoop2.7.7集群环境搭建

您所在的位置:网站首页 hadoop集群部署中为什么要在linux中安装ssh (超详细版) Linux下安装配置Hadoop2.7.7集群环境搭建

(超详细版) Linux下安装配置Hadoop2.7.7集群环境搭建

2023-07-20 17:50| 来源: 网络整理| 查看: 265

1. (超详细版) Linux下安装配置Hadoop2.7.7集群环境搭建—基础环境配置

2. (超详细版) Linux下安装配置Hadoop2.7.7集群环境搭建—部署Hadoop

一、下载并解压hadoop2.7.7 cd /usr/local wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz tar -zxvf hadoop-2.7.7.tar.gz 二、配置环境变量 vi /etc/profile #添加如下配置 export HADOOP_HOME=/usr/local/hadoop-2.7.7 export PATH=$PATH:$HADOOP_HOME/bin #使配置生效 source /etc/profile #测试(输入hadoop有提示则表示成功) hadoop #将profile发送到其他节点 scp /etc/profile hadoop@xt2:/etc scp /etc/profile hadoop@xt3:/etc #记得在其他节点下source source /etc/profile 三、Hadoop的配置 1. 创建文件目录

为了便于管理,给xt1的hdfs的NameNode、DataNode及临时文件,在用户目录下创建目录:

#在usr/local下创建hdfs目录 cd /usr/local mkdir hdfs cd hdfs mkdir name mkdir data mkdir tmp #将hdfs文件夹传到其他两个节点,注意权限问题 chmod 777 usr/local #其他节点也要 chmod 777 usr/local/hdfs scp -r /usr/local/hdfs hadoop@xt2:/usr/local scp -r /usr/local/hdfs hadoop@xt3:/usr/local 2. Hadoop的配置 # 进入hadoop-2.7.7的配置目录: cd /user/hadoop-2.7.7/etc/hadoop

依次修改core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml以及slaves文件。 在这里插入图片描述 修改core-site.xml配置

vi core-site.xml

core-site.xml的配置如下

hadoop.tmp.dir file:/usr/local/hdfs/tmp io.file.buffer.size 131072 fs.default.name hdfs://xt1:9000 hadoop.proxyuser.root.hosts * hadoop.proxyuser.root.groups *

修改hdfs-site.xml

vi hdfs-site.xml

hdfs-site.xml的配置如下

dfs.replication 2 dfs.namenode.name.dir file:/usr/local/hdfs/name true dfs.datanode.data.dir file:/usr/local/hdfs/data true dfs.namenode.secondary.http-address xt1:9001 dfs.webhdfs.enabled true dfs.permissions false

添加修改mapred-site.xml

#将mapred-site.xml.template复制为mapred-site.xml cp mapred-site.xml.template mapred-site.xml

mapred-site.xml的配置如下

mapreduce.framework.name yarn

修改yarn-site.xml

vi yarn-site.xml yarn.resourcemanager.address xt1:8010 yarn.resourcemanager.scheduler.address xt1:8011 yarn.resourcemanager.webapp.address xt1:8012 yarn.resourcemanager.resource-tracker.address xt1:8013 yarn.resourcemanager.admin.address xt1:8014 yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.nodemanager.resource.memory-mb 2048 yarn.nodemanager.resource.cpu-vcores 1

修改slaves和hadoop-env.sh文件

#修改slaves文件 vi /usr/local/hadoop-2.7.7/etc/hadoop/slaves #将localhost改成下方 xt2 xt3 #修改hadoop-env.sh文件(注释掉之前的,添加完整路径) vi /usr/local/hadoop-2.7.7/etc/hadoop/hadoop-env.sh #export JAVA_HOME=${JAVA_HOME} export JAVA_HOME=/usr/local/jdk1.8.0_141 3. 将hadoop2.7.7的文件夹复制到xt2和xt3 scp -r /usr/local/hadoop-2.7.7 hadoop@xt2:/usr/local scp -r /usr/local/hadoop-2.7.7 hadoop@xt3:/usr/local 四、运行Hadoop #格式化 hadoop namenode -format cd /usr/local/hadoop-2.7.7/sbin/ #启动hadoop sh ./start-all.sh #查看集群状态 /usr/local/hadoop-2.7.7/bin/hdfs dfsadmin -report

在这里插入图片描述

五、测试 #测试yarm,登录 地址是(yarn.resourcemanager.webapp.address)的value http://192.168.123.100:8012/cluster/cluster

在这里插入图片描述

#测试HDFS http://192.168.123.100:50070/dfshealth.html

在这里插入图片描述

配置完毕!


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3