使用nas服务器建设网站,南宁seo推广优化,公明做网站,平地起建筑人才网HBase 集群搭建
HBase 安装包下载地址#xff1a;https://archive.apache.org/dist/hbase/
安装 HBase 的前提#xff1a;
ZooKeeper 集群 OKHadoop 集群 OK
1. HBase 集群安装
1. 将 HBase 软件包上传至 Hadoop0 解压并重命名 使用 FileZilla 将 hbase-1.3.1-bin.tar.g…HBase 集群搭建
HBase 安装包下载地址https://archive.apache.org/dist/hbase/
安装 HBase 的前提
ZooKeeper 集群 OKHadoop 集群 OK
1. HBase 集群安装
1. 将 HBase 软件包上传至 Hadoop0 解压并重命名 使用 FileZilla 将 hbase-1.3.1-bin.tar.gz 上传至 Hadoop0 的 /software/ 目录下 解压 hbase-1.3.1-bin.tar.gz并重命名解压后的文件夹
[roothadoop0 ~]# cd /software/
[roothadoop0 software]# tar -zxvf hbase-1.3.1-bin.tar.gz
[roothadoop0 software]# mv hbase-1.3.1 hbase2. 添加环境变量
# /etc/profile添加完source加载一下使其生效
export HBASE_HOME/software/hbase
export PATH.:$PATH:$HBASE_HOME/bin3. 修改配置文件
操作路径 $HBASE_INSTALL/conf
1修改 hbase-env.sh
可在命令模式下通过 / 进行查找false 代表使用的是外置的 zookeepertrue 代表使用的是 hadoop 自带的 zookeeper
[roothadoop0 conf]# vi hbase-env.sh
export JAVA_HOME/software/jdk/
export HBASE_MANAGES_ZKfalse2修改 hbase-site.xml
注意 hdfs://hadoop0:8020/hbase 的端口和 hadoop 保持一致hadoop 没有配置端口默认是 8020配置了一般配置 9000 端口
[roothadoop0 conf]# vi hbase-site.xml
propertynamehbase.rootdir/namevaluehdfs://hadoop0:8020/hbase/value
/property propertynamehbase.cluster.distributed/namevaluetrue/value
/property
propertynamehbase.zookeeper.quorum/namevaluehadoop0,hadoop1,hadoop2/value
/property
propertynamehbase.zookeeper.property.dataDir/namevalue/software/zk/value
/property3修改 regionservers存放的 region server 的 hostname
[roothadoop0 conf]# vi regionservers
hadoop1
hadoop24复制 Hadoop0 中的 hbase 文件夹到 Hadoop1、Hadoop2 中在 Hadoop0 中执行如下命令
[roothadoop0 conf]# scp -r /software/hbase hadoop1:/software/
[roothadoop0 conf]# scp -r /software/hbase hadoop2:/software/5配置从节点环境变量
复制 Hadoop0 中的 /etc/profile 到 Hadoop1、Hadoop2 中在 Hadoop1、Hadoop2 上执行 source /etc/profile或直接修改 Hadoop1 和 Hadoop2 的环境变量配置文件
scp /etc/profile hadoop1:/etc/
scp /etc/profile hadoop2:/etc/2. 启动/停止 HBase 集群
1. 三台服务器分别启动 ZooKeeper
配置了环境变量不需要切到 zk 的 bin 目录下
# 切到zk的安装目录下的bin目录中
cd /software/zk/bin
zkServer.sh start
# 启动完查看下状态
zkServer.sh status2. 在 Hadoop0 上启动 HadoopHadoop2 和 Hadoop3 就一块启动了
# start-all是把hdfs和yarn都启动了
start-all.sh
# 查看状态
jps3. 启动 HBasehadoop0 启动即可
start-hbase.sh
# 退出HBase
stop-hbase.sh启动完成查看进程情况 HBase主从架构式的集群主节点HMaster从进程HRegionServer
3. 查看 HBase 的 webUI 界面
172.16.15.100:16010