搭建完全分布式HBase |
您所在的位置:网站首页 › 分布式数据库hbase案例 › 搭建完全分布式HBase |
基于完全分布式Hadoop环境搭建完全分布式HBase
1. 准备安装文件HBase 2.2.6(只在hadoop01上进行)
· 在Windows中下载HBase,下载网址:https://mirrors.bfsu.edu.cn/apache/hbase/2.2.6/hbase-2.2.6-bin.tar.gz · 利用XFtp软件,将Windows中保存的hbase-2.2.6-bin.tar.gz拷贝到hadop01虚拟机,存储位置:/home/root/ 2. 解压缩HBase安装文件(只在ahdoop01上进行)· 在hadoop01中切换到HBase安装文件所在目录: cd /home/root· 解压缩到apps目录中: tar -xzvf hbase-2.2.6-bin.tar.gz -C apps 3. 配置环境变量(只在hadoop01上进行)· 编辑/etc/profile文件: vi /etc/profile· 在HADOOP_HOME下面增加一行,配置HBASE_HOME,在PATH最后增加HBase的bin目录,修改效果如下: export JAVA_HOME=/home/root/apps/jdk1.8.0_201 export HADOOP_HOME=/home/root/apps/hadoop-2.9.2 export HBASE_HOME=/home/root/apps/hbase-2.2.6 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin· 使修改的profile文件生效: source /etc/profile 4. 修改HBase配置文件(只在hadoop01上进行)· 切换到配置文件目录: cd /home/root/apps/hbase-2.2.6/conf· 编辑hbase-env.sh文件: vi hbase-env.sh找到 # export JAVA_HOME=/usr/java/jdk1.6.0/修改为 export JAVA_HOME=/home/root/apps/jdk1.8.0_201(注意:要去掉最前面的#) 找到如下代码 # Tell HBase whether it should manage it's own instance of Zookeeper or not. # export HBASE_MANAGES_ZK=true去掉export前面的#,修改效果如下: # Tell HBase whether it should manage it's own instance of Zookeeper or not. export HBASE_MANAGES_ZK=true· 编辑hbase-site.xml文件: vi hbase-site.xml原有配置信息 hbase.cluster.distributed false hbase.tmp.dir ./tmp hbase.unsafe.stream.capability.enforce false修改第一项hbase.cluster.distributed的value值为true 然后再添加如下配置信息 hbase.rootdir hdfs://hadoop01:9000/hbase hbase.zookeeper.quorum hadoop01:2181,hadoop02:2181,hadoop03:2181,hadoop04:2181,hadoop05:2181 hbase.master.maxclockskew 180000 hbase.zookeeper.property.dataDir /root/hbase/zookeeper· 编辑regionservers文件: vi regionservers删除默认的内容localhost,修改内容为: hadoop01 hadoop02 hadoop03 hadoop04 hadoop05 · 编辑Hadoop的配置文件hdfs-site.xml cd /home/root/apps/hadoop-2.9.2/etc/hadoop vi hdfs-site.xml新增如下配置信息 dfs.datanode.max.transfer.threads 4096 5. 拷贝文件到其它机器(只在hadoop01上进行)· 在hadoop01上拷贝HBase安装包到hadoop02~hadoop05 cd /home/root/apps scp -r hbase-2.2.6/ hadoop02:$PWD scp -r hbase-2.2.6/ hadoop03:$PWD scp -r hbase-2.2.6/ hadoop04:$PWD scp -r hbase-2.2.6/ hadoop05:$PWD· 拷贝hadoop的hdfs-site.xml文件到hadoop02~hadoop05 cd /home/root/apps/hadoop-2.9.2/etc/hadoop scp hdfs-site.xml hadoop02:$PWD scp hdfs-site.xml hadoop03:$PWD scp hdfs-site.xml hadoop04:$PWD scp hdfs-site.xml hadoop05:$PWD· 拷贝/etc/profile文件到hadoop02~hadoop05 scp /etc/profile hadoop02:/etc/ scp /etc/profile hadoop03:/etc/ scp /etc/profile hadoop04:/etc/ scp /etc/profile hadoop05:/etc/ source /etc/profile(注意:在hadoop02~hadoop05上都要执行该命令!) 6. 启动HBase(只在hadoop01上进行)· 在hadoop01上执行如下操作 · 启动HDFS集群 cd /home/root/apps/hadoop-2.9.2/sbin ./start-dfs.sh· 启动HBase cd /home/root/apps/hbase-2.2.6/bin start-hbase.sh· 检查启动情况 输入 jps,查看进程中是否包含HMaster、HRegionServer、HQuorumPeer 在Windows环境下,启动Chrome浏览器,输入hadoop01:16010 7. 命令行方式操作HBase(只在hadoop01上进行) cd /home/root/apps/hbase-2.2.6/bin hbase shell //启动命令行交互模式 status // 查看集群状态 version // 查看集群版本 list // 查看表 ·exit //退出交互模式 8. 退出HBase(只在hadoop01上进行) cd /home/root/apps/hbase-2.2.6/bin stop-hbase.sh //执行时间稍长,需耐心等待 cd /home/root/apps/hadoop-2.9.2/sbin ./stop-dfs.sh到此HBase完全分布式已搭建成功!感谢观看! (注:第二次发文,如有错误和疑问,欢迎在评论区指出) |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |