Hadoop集群搭建(一) |
您所在的位置:网站首页 › 如何在eclipse中配置hadoop › Hadoop集群搭建(一) |
Haoop集群搭建【一】--伪分布式集群与eclipse的安装
Ⅰ 前言Ⅱ 搭建虚拟机准备(附带下载链接)一.VMware二.终端模拟器及文件传输软件三.虚拟机镜像四.相关组件
Ⅲ.集群安装与配置教程一,创建虚拟机二,安装Centos7常见问题
三,虚拟机网络配置(通过环回适配器)本地物理机网络配置虚拟机网络配置虚拟机网卡配置克隆虚拟机配置主机名及hosts列表设置免密钥登录关闭防火墙(所有机器)验证网络
Ⅳ,安装hadoop安装jdk安装hadoop配置环境变量 hadoop-env.sh配置环境变量 yarn-env.sh配置环境变量 mapred-env.sh配置核心组件core-site.xml配置文件系统 hdfs-site.xml配置文件系统 yarn-site.xml配置计算框架 mapred-site.xml配置slaves文件配置hadoop启动系统环境变量复制hadoop传给虚拟机
启动Hadoop集群
Ⅴ,安装eclipseⅥ,小结
Ⅰ 前言
最近由于硬盘垃圾文件太多,图方便直接恢复出厂清空了所有盘文件,想着重装一次虚拟机可以顺便写一个安装心得还有教程,于是写了包括本文的接下来几个博客,该系列博客将会手把手搭建hadoop集群及其常用组件,记录全过程并指出部分常见错误 Ⅱ 搭建虚拟机准备(附带下载链接)我们首先需要准备一些基本的软件用于搭建集群 一.VMwareVMware Workstation(中文名“威睿工作站”)是一款功能强大的桌面虚拟计算机软件,提供用户可在单一的桌面上同时运行不同的操作系统.我们需要下载这个平台用于搭建虚拟机,在下面链接中下载完成后自行安装好。 (以下给出下载链接) VMware Station pro 16.0.0 下载链接 密码:zccy 至于激活码,搜索一下,网上一大把都可以随便用(我的链接中的虚拟机版本是16.0,激活版本别搞错了) 二.终端模拟器及文件传输软件我们还需要一个终端模拟器和文件传输软件来进行对虚拟机的控制和文件传输,这里我们使用Xmanager,他包含一组工具,其中含有Xshell(模拟器)和Xftp(传输软件),此处要是有自己习惯的软件的话也可以使用自己喜欢的,安装即可,一样的,下面给出链接, Xmanager下载链接 密码:zccy 1,解压压缩包 2、注册码.txt中获取序列号。双击运行Xme5.exe,进行安装 三.虚拟机镜像我们还需要为虚拟机准备系统镜像,这里选用适合初学者的centos7(linux) Centos7镜像下载地址 密码:zccy 四.相关组件hadoop生态圈还有很多的组件。例如Spark,Hbase,hive等等,因为篇幅问题,这些软件在此处不介绍,给出下载链接,具体的安装教程将会在之后的博客给出,(本文需要使用链接中的hadoop,jdk,eclipse,hadoop-eclipse-plugin-2.7.7.jar (eclipse插件)) 集群组件下载链接 密码:zccy Ⅲ.集群安装与配置教程 一,创建虚拟机
如图,使用root用户登陆虚拟机 本地物理机网络配置特别提醒,这里操作的是你自己的电脑,不是虚拟机,打开自己电脑的计算机管理,如图所示点击, 如图,在VMware中打开虚拟网络编辑器 重启完成后,再次登入root用户 我们看到了如下的界面
如果结果和下图一样,则运行成功 其实除了通过VMware克隆,还可以在本地文件系统找到虚拟机根目录,直接复制粘贴虚拟机,但这种方法不做推荐(能按两下解决的事,整那么复杂干嘛) 如下图,依次点击
在Master中输入指令 hostnamectl set-hostname master
在所有虚拟机上配置hosts列表(否则会导致连接错误) vi /etc/hosts删除其余的配置,向其中添加主节点以及从节点信息(如图) 首先在三个虚拟机都输入指令 ssh-keygen –t rsa连续点击几个回车 然后回到master上,继续输入指令 cd .ssh cp id_rsa.pub authorized_keys scp -p id_rsa.pub root@slave:/root/.ssh/authorized_keys scp -p id_rsa.pub root@slave2:/root/.ssh/authorized_keys注意,最后两步需要输入密码,请一步一步执行,不要直接复制全部 最后回到两个slave上输入指令 cd .ssh chmod 600 authorized_keys
关闭虚拟机防火墙 systemctl stop firewalld.service #停止firewall systemctl disable firewalld.service #禁止firewall开机启动关闭物理机防火墙(ping不通物理机再关) 验证网络将下面几行填入/etc/hosts文件中(根据自己配的IP地址) 192.168.1.2 master 192.168.1.3 slave 192.168.1.4 slave2 使用ping命令查看网络 如图,也是可以的, Ⅳ,安装hadoop做好了准备,我们开始正式进入hadoop集群安装 首先打开Xmanager中的Xshell 将jdk传给虚拟机(几个虚拟机都传) (确定在根目录下)创建一个jdk目录(三个虚拟机同步),并解压jdk到这个文件夹 mkdir jdk tar -xvf jdk-8u144-linux-x64.tar.gz -C /root/jdk
编辑内容如下 export JAVA_HOME=/root/jdk/jdk1.8.0_144/ export PATH=$JAVA_HOME/bin:$PATH编辑完成后,重新加载,输入下列指令 source .bash_profile再查看jdk版本 java -version这里我们说一下.bash_profile文件,这是一个配置路径的文件,还有一个效果相同的文件(在/etc)profile,这里我们之所以使用.bash_profile的原因是/etc/profile是默认配置文件,我们可以把我们的路径信息放在.bash_profile中,就可以与系统配置文件错开 提示:JAVAHOME是自己设置的jdk路径(跟着我做的文件跟我一样就行) 安装hadoop将准备好的hadoop下载到master的root目录下, 解压 tar -xvf hadoop-2.7.7.tar.gz创建几个新文件夹 mkdir /root/hadoop-2.7.7/hdfs mkdir /root/hadoop-2.7.7/hdfs/tmp mkdir /root/hadoop-2.7.7/hdfs/name mkdir /root/hadoop-2.7.7/hdfs/data 配置环境变量 hadoop-env.sh输入指令 vi ./hadoop-2.7.7/etc/hadoop/hadoop-env.sh找到配置文件中的JAVA_HOME,添加自己的jdk路径 输入指令 vi ./hadoop-2.7.7/etc/hadoop/yarn-env.sh同样的,修改其中的JAVA_HOME 输入指令 vi ./hadoop-2.7.7/etc/hadoop/mapred-env.sh同样的,修改其中的JAVA_HOME 输入指令 vi ./hadoop-2.7.7/etc/hadoop/core-site.xml在文件末尾的 configuration 之间添加下列内容 fs.defaultFS hdfs://master:9000 hadoop.tmp.dir /root/hadoop-2.7.7/hdfs/tmp结果如下 输入指令 vi ./hadoop-2.7.7/etc/hadoop/hdfs-site.xml在文件末尾的 configuration 之间添加下列内容 dfs.replication 2 dfs.namenode.name.dir /root/hadoop-2.7.7hdfs/name true dfs.datanode.data.dir /root/hadoop-2.7.7/hdfs/data true dfs.permissions false输入指令 vi ./hadoop-2.7.7/etc/hadoop/yarn-site.xml在文件末尾的 configuration 之间添加下列内容 yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.address master:8040 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.resource-tracker.address master:8025 yarn.resourcemanager.admin.address master:8141 yarn.resourcemanager.webapp.address master:8088结果如下 输入指令 cp ./hadoop-2.7.7/etc/hadoop/mapred-site.xml.template ./hadoop-2.7.7/etc/hadoop/mapred-site.xml vi ./hadoop-2.7.7/etc/hadoop/mapred-site.xml在文件末尾的 configuration 之间添加下列内容 mapreduce.framework.name yarn结果如下: 把localhost改成slave,slave2 向.bash_profile 添加hadoop配置信息 vi .bash_profile export HADOOP_HOME=/root/hadoop-2.7.7 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH结果如下 根目录下 scp -r hadoop-2.7.7 root@slave:~/ scp -r hadoop-2.7.7 root@slave2:~/ 启动Hadoop集群格式化文件系统 hdfs namenode -format启动Hadoop cd hadoop-2.7.7/sbin ./start-dfs.sh ./start-yarn.shjps查看运行情况,如图所示,即成功(namenode启动) 好了,到这伪分布式集群就搭建完成了 集群(节点)无法启动,可以参考我的另一篇博客 这是传送门:虚拟机节点启动异常的解决方法 web页面无法显示datanode节点信息,可以参考我的另一篇博客 这是传送门:hadoop集群web页面无法显示节点信息的解决方法 Ⅴ,安装eclipse将准备好的eclipse压缩包和hadoop-eclipse-plugin-2.7.7.jar 放入root目录下,(hadoop-eclipse-plugin-2.7.7.jar在上面链接下载,这个资源不好找,直接下就好,我是自己用ant编译的) 解压eclipse tar -xvf eclipse-jee-oxygen-3-linux-gtk-x86_64.tar.gz将hadoop-eclipse-plugin-2.7.7.jar拷贝至eclipse的plugins目录下 cp /root/hadoop-eclipse-plugin-2.7.7.jar /root/eclipse/plugins打开eclipse eclipse/eclipse打开菜单Window–Preference–Hadoop Map/Reduce进行配置,如下图所示:(路径为hadoop路径) 配置连接Hadoop,如下图所示: 如下图,即配置成功 安装hadoop集群是学习是学习haoop集群的第一步,如果出现了什么问题欢迎在评论区留言,互相讨论,下一篇将会介绍hadoop集群上spark环境的安装,如果这篇博有帮到你,请在下文点个赞呦! |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |