欢迎投稿

今日深度:

hbase集群搭建,

hbase集群搭建,


环境准备:

1/ 因为hbase的表数据最终持久化到HDFS中,所以HBASE集群应该跟HDFS集群完全重合(小弟和小弟在一起)

2/ 需要安装一个zookeeper集群

3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了)
注意:要把hadoop的hdfs-site.xml和core-site.xml 放到hbase/conf下

3.1修改hbase-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_55
//告诉hbase使用外部的zk
export HBASE_MANAGES_ZK=false

vim hbase-site.xml
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://ns1/hbase</value>
        </property>
<!-- 指定hbase是分布式的 -->
        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
<!-- 指定zk的地址,多个用“,”分割 -->
        <property>
                <name>hbase.zookeeper.quorum</name>
                <value>weekend05:2181,weekend06:2181,weekend07:2181</value>
        </property>
</configuration>

vim regionservers
weekend03
weekend04
weekend05
weekend06

3.2拷贝hbase到其他节点
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend02:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend03:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend04:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend05:/weekend/
scp -r /weekend/hbase-0.96.2-hadoop2/ weekend06:/weekend/
4.将配置好的HBase拷贝到每一个节点并同步时间。
data -s 时间
5.启动所有的hbase
分别启动zk
./zkServer.sh start
启动hbase集群
start-dfs.sh
启动hbase,在主节点上运行:
start-hbase.sh
注:在哪台机器上执行此命令,就会在哪台机器上启动master进程
但是master可以启动多个(手动用hbase-daemon.sh start master)


6.通过浏览器访问hbase管理页面
192.168.1.201:16010
7.为保证集群的可靠性,要启动多个HMaster

hbase-daemon.sh start master

www.htsjk.Com true http://www.htsjk.com/hbase/41412.html NewsArticle hbase集群搭建, 环境准备: 1/ 因为 hbase 的表数据最终持久化到 HDFS 中,所以 HBASE 集群应该跟 HDFS 集群完全重合(小弟和小弟在一起) 2/ 需要安装一个 zookeeper 集群 3.配置hbase集群,要...
相关文章
    暂无相关文章
评论暂时关闭