目录
主机名称 | IP | 资源 | 部署角色 |
hadoop01 | 192.168.170.136 | 2cpu 4G | master、regionserver |
hadoop02 | 192.168.170.137 | 2cpu 4G | master、regionserver |
hadoop03 | 192.168.170.138 | 2cpu 4G | regionserver |
首先保证 Zookeeper 集群的正常部署,并启动之。
安装教程:【Zookeeper 初级】02、Zookeeper 集群部署-CSDN博客
Hadoop 集群的正常部署并启动。
安装教程:Hadoop YARN HA 集群安装部署详细图文教程_hadoop yarn部署-CSDN博客
HBase 官方下载地址:Apache Download Mirrors
(base) [root@hadoop01 ~]# ls
hbase-2.5.6-bin.tar.gz
# 解压 Hbase 到指定目录
(base) [root@hadoop01 ~]# tar -zxvf hbase-2.5.6-bin.tar.gz -C /bigdata/
(base) [root@hadoop01 ~]# cd /bigdata/
(base) [root@hadoop01 /bigdata]# mv hbase-2.5.6 hbase
# 配置环境变量
(base) [root@hadoop01 /bigdata]# vim /etc/profile
# hbase
export HBASE_HOME=/bigdata/hbase
export PATH=$PATH:$HBASE_HOME/bin
# 使用 source 让配置的环境变量生效
(base) [root@hadoop01 /bigdata]# source /etc/profile
[root@hadoop01 /bigdata]# cd /bigdata/hbase/conf/
[root@hadoop01 /bigdata/hbase/conf]# vim hbase-env.sh
# 关闭 hbase 自带zk,使用自己搭建的 zookeeper 集群
export HBASE_MANAGES_ZK=false
# 设定 hbase 的内存为 2G,生产环境中可开启设置
#export HBASE_HEAPSIZE=2G
# 增加系统环境配置, 必须在/etc/profile定义JAVA_HOME
source /etc/profile
export JAVA_HOME=/usr/java/jdk1.8.0_381
# 存放 PID 文件的目录
export HBASE_PID_DIR=/bigdata/hbase/pids
# 避免 master 启动报错类冲突
export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
[root@hadoop01 /bigdata/hbase/conf]# vim hbase-site.xml
<!-- hbase 在 hdfs 中的存储位置, 如果 hdfs 是 ha 模式, 那就把 hadoop01 换成逻辑集群名(比如我的是 mycluster,可在你的 hadoop 配置文件 core-site.xml 查看) 并且创建 hdfs-site.xml 软连接 -->
<!-- hbase 在 hdfs 中的存储位置 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop01/hbase</value>
</property>
<!-- 开启 hbase 的全分布式 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- zookeeper 的端口号 -->
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<!-- zookeeper 集群的主机名 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop01,hadoop02,hadoop03</value>
</property>
<!-- hbase 的临时文件存储路径 -->
<property>
<name>hbase.tmp.dir</name>
<value>/bigdata/hbase/tmpdata</value>
</property>
<!-- 开启配置防止 hmaster 启动问题 -->
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
<!-- 监控页面端口 -->
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
[root@hadoop01 /bigdata/hbase/conf]# vim regionservers
hadoop01
hadoop02
hadoop03
[root@hadoop01 ~]# mkdir -p /bigdata/hbase/tmpdata
# 如果 hadoop 是集群模式(HA 模式),则执行以下步骤
(base) [root@hadoop01 ~]# ln -s /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop/core-site.xml /bigdata/hbase/conf/core-site.xml
(base) [root@hadoop01 ~]# ln -s /bigdata/hadoop/server/hadoop-3.2.4/etc/hadoop/hdfs-site.xml /bigdata/hbase/conf/hdfs-site.xml
[root@hadoop01 ~]# scp -r /bigdata/hbase 192.168.170.137:/bigdata/hbase
[root@hadoop01 ~]# scp -r /bigdata/hbase 192.168.170.138:/bigdata/hbase
# 并修改 /etc/profile 环境变量(其他节点),同 1.3 的步骤一样
# 只启动本节点 master
hbase-daemon.sh start master
# 启动所有从节点
hbase-daemon.sh start regionserver
# 只启动本机器的 master 和所有机器的从节点, 不推荐, 推荐使用 daemon 脚本
start-hbase.sh
[root@hadoop01 ~]# jps
1264 RunJar
2512 JournalNode
1442 RunJar
2212 DataNode
2789 DFSZKFailoverController
3189 ResourceManager
1734 QuorumPeerMain
3382 NodeManager
7368 HMaster
2028 NameNode
7614 HRegionServer
7711 Jps
# 只停止本节点的 master 和所有节点的 regionserver
stop-hbase.sh
启动成功后,可以通过 “192.168.170.136:60010” 的方式来访问 HBase 管理页面,例如:
????????在 HBase 中 HMaster 负责监控 HRegionServer 的生命周期,均衡 RegionServer 的负载,如果 HMaster 挂掉了,那么整个 HBase 集群将陷入不健康的状态,并且此时的工作状态并不会维持太久。所以 HBase 支持对 HMaster 的高可用配置。
# 可以随意选择任意一个节点作为 Backup Master,这里我以 hadoop02节点
(base) [root@hadoop02 /bigdata/hbase/conf]# hbase-daemon.sh start master
(base) [root@hadoop02 /bigdata/hbase/conf]# jps
1570 DataNode
35123 Jps
1701 JournalNode
34694 HRegionServer
1865 DFSZKFailoverController
2009 ResourceManager
2121 NodeManager
1338 QuorumPeerMain
1466 NameNode
35050 HMaster
访问?Backup Master 页面:192.168.170.137:60010
刷新 hadoop01 页面:
至此 HBase 高可用集群部署完毕!?
在新节点初始化并拷贝安装目录。
# 在新节点启动 master
hbase-daemon.sh start regionserver
# 修改各节点的 conf/regionservers,增加新节点的 ip
vi conf/regionservers
# 进入 hbase shell, 开启重新分配 region 数据, 这是hbase的一个周期性工作, 默认 5 分钟
hbase shell
balance_switch true
# 执行命令查看当前 hbase 的负载均衡 balance 是否开启
# 注意这个命令没有写错, 不是 balance_switch status, status 是将 balance 状态强制转换为 false
balancer_enabled
# 立即进行一次均衡操作
# 当前各节点的 region 数量可以在前端页面查看
balancer
上一篇文章:HBase 详细图文介绍-CSDN博客