博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Zookeeper,Hbase 伪分布,集群搭建
阅读量:6821 次
发布时间:2019-06-26

本文共 5708 字,大约阅读时间需要 19 分钟。

工作中一般使用的都是zookeeper和Hbase的分布式集群.

more /etc/profile    cd /usr/local    zookeeper-3.4.5.tar.gz

zookeeper在安装部署的时候,节点数量必须是不少于三个的奇数个.

 

 ===================================

伪分布式搭建(3个节点):

    伪分布式集群,就是在一台pc中,启动多个zookeeper的实例,完全分布式是指每台pc,启动一个zookeeper实例.

  1.1 解压缩zookeeper-3.4.5.tar.gz

tar -zxvf zookeeper-3.4.5.tar.gz    mv zookeeper-3.4.5 zookeeper    cd zookeeper    rm -rf docs/    rm -rf src/    cd conf/

  1.2 执行命令:

cp zoo_sample.cfg zoo1.cfg    more zoo1.cfg        tickTime=2000:集群中,各个节点通信的单位叫tick,通信时间是2000毫秒.    initLimit=10:10个tick,初始化同步时需要的时间.    syncLimit=5:同步使用的时间.    dataDir=/tmp/zookeeper:存储数据使用的一些目录.    clientPort=2181:    客户端与zookeeper通信所使用的端口.

  1.3 修改文件conf/zoo1.cfg,修改内容如下:

vi zoo1.cfg    dataDir=/usr/local/zookeeper/zoo1/data/    clientPort=2181    #描述zookeeper三个节点之间的关系,    #4:每个节点的标示. hadoop4:标示zookeeper所在的机器.    server.1=hadoop4:2888:3888    server.2=hadoop4:2889:3889    server.3=hadoop4:2890:3890

  1.4 执行命令:

cp zoo1.cfg zoo2.cfg

  1.5 修改文件conf/zoo2.cfg,修改内容如下:

vi zoo2.cfg    dataDir=/usr/local/zookeeper/zoo2/data/    clientPort=2182//客户端访问需要使用2182端口,三个不同放入节点,不能都是用同一个端口2181    server.1=hadoop4:2888:3888    server.2=hadoop4:2889:3889    server.3=hadoop4:2890:3890

1.6 修改文件conf/zoo2.cfg,修改内容如下:

vi zoo2.cfg    dataDir=/usr/local/zookeeper/zoo2/data/    clientPort=2182//客户端访问需要使用2182端口,三个不同放入节点,不能都是用同一个端口2181    server.1=hadoop0:2888:3888    server.2=hadoop0:2889:3889    server.3=hadoop0:2890:3890        cp zoo1 .cfg zoo3.cfg    vi zoo3.cfg    dataDir=/usr/local/zookeeper/zoo3/data/    clientPort=2183//客户端访问需要使用2182端口,三个不同放入节点,不能都是用同一个端口2181    server.1=hadoop4:2888:3888    server.2=hadoop4:2889:3889    server.3=hadoop4:2890:3890

  1.7 执行命令,产生存储数据的目录:

clear    mkdir -p /usr/local/zookeeper/zoo1/data/    mkdir -p /usr/local/zookeeper/zoo2/data/    mkdir -p /usr/local/zookeeper/zoo3/data/

  1.8 产生标记文件:

//myid 标注在这个节点下的数据是输入哪一个节点的.    cd ..    echo '1' > zoo1/data/myid    echo '2' > zoo2/data/myid    echo '3' > zoo3/data/myid

  1.9 分别启动节点:

cd zookeeper    bin/zkServer.sh start conf/zoo1.cfg    bin/zkServer.sh start conf/zoo2.cfg    bin/zkServer.sh start conf/zoo3.cfg

    jps 查看节点,多出一个zookeeper进程:QuorumPeerMain

    在一个节点上启动三个zookeeper进程,组成的节点就是zookeeper的伪分布.

  zookeeper的操作:

bin/zkCli.sh    //连接某一个节点    connect hadoop4:2182    //ls 显示zookeeper的目录结构    ls /    ls /zookeeper/quota    //create 创建节点    create /crxy hadoop    //get 读取节点的值    get /crxy    //set 修改节点的值    set /crxy 44444    zookeeper就是一个读写数据的,管理这些数据的时候,就是一个树状结构.    zookeeper最大的特点:保证数据的同步.

 

  ip修改和主机名绑定:

修改主机名:    vi /etc/sysconfig/network    修改ip:    vi /etc/sysconfig/network-scripts/ifcfg-Auto-eth1    删除硬件地址:HWADDR,UUID    修改ip地址:IPADDR    重启网络:    service netwotk restart     查看ip地址:    ifconfig    添加ip地址和主机名绑定:    vi /etc/hosts

 

 ===================================

Hbase伪分布式搭建(只有一个节点,使用自己的zookeeper实例):

  2.1 解压缩:

tar -zxvf hbase-0.94.13-security.tar.gz    mv hbase-0.94.13-security.tar.gz hbase    rm -rf *.gz    cd hbase     rm -rf docs/    rm -rf src/

  2.2 编辑文件conf/hbase-env.sh,修改内容:

vi conf/hbase-env.sh    export JAVA_HOME=/usr/local/jdk    //告诉HBASE是否应该自己管理自己的zookeeper实例,true 表示zookeeper是hbase自己搭建的,与外部的没有关系.    export HBASE_MANAGES_ZK=true

  2.3 编辑文件conf/hbase-site.xml 修改内容:

    vi conf/hbase-site.xml

rootDir
hdfs://hadoop4:9000/hbase
hbase.cluster.distributed
true
hbase.zookeeper.quorum
hadoop4

  2.4 启动hbase之前,需要检查hadoop的hdfs是否正常运行的.

启动hbase    cd hbase     bin/start-hbase.sh

  2.5 检查,执行jps命令,看到三个新的java进程,分别是:

    HQuorumPeer,HMaster,HRegionServer

    查看hdfs://hadoop4:60010

 ===================================

zookeeper集群部署:

  1.在hadoop4上解压缩zookeeper-3.4.5.tar.gz

  2.执行命令cp conf/zoo_sample.cfg conf/zoo.cfg

  3.修改文件conf/zoo.cfg

dataDir=/usr/local/zookeeper/data    clientPort=2181    server.1=hadoop4:2888:3888    server.2=hadoop5:2889:3889    server.3=hadoop6:2890:3890

  4.执行命令,产生存储数据的目录

    mkdir -p /usr/local/zookeeper/data

  5.产生标记文件

    echo '0' > /usr/local/zookeeper/data/myid

  6.把hadoop4上的zookeeper复制到其他节点

scp -rq zookeeper hadoop5:/usr/local    scp -rq zookeeper hadoop6:/usr/local

  7.在hadoop5,hadoop6上产生标记文件:

    在hadoop5上执行 echo '1' > /usr/local/zookeeper/data/myid

    在hadoop6上执行 echo '2' > /usr/local/zookeeper/data/myid

  8.在三个节点分别执行bin/zkServer.sh start

  9.检查(1)执行jps查看 (2)执行bin/zkServer.sh status

hbase关闭:    hbase/bin/stop-hbase.sh     查看zookeeper的状态:    bin/zkServer.sh ststus

 

 ===================================

搭建Hbase集群(hadoop4作为主节点,hadoop5和hadoop6作为从节点):

  1.在hadoop4上 解压缩,

  2.编辑文件conf/hbase-env.sh

export JAVA_HOME=/usr/local/jdk    export HBASE_MANAGES_ZK=false

 

  3.编辑文件conf/hbase-site.xml

rootDir
hdfs://hadoop4:9000/hbase
hbase.cluster.distributed
true
hbase.zookeeper.quorum
hadoop4,hadoop5,hadoop6

  4.编辑文件conf/regionservers修改内容

hadoop5    hadoop6

  5.复制hbase到其他节点,hadoop5,hadoop6

cd ..    scp hbase hadoop5:/usr/local    scp hbase hadoop6:/usr/local

  6. 启动hbase之前,要检查hadoop的hdfs,zookeeper,集群是否正常运行.

    hadoop4上执行bin/start-hbase.sh

  7.检查.执行jps命令,在hadoop0看到看到一个新的进程,HMaster

    查看http://hadoop4:60010

转载于:https://www.cnblogs.com/xiaolong1032/p/5034727.html

你可能感兴趣的文章
数据库--sqlite的操作
查看>>
手机号码 正则
查看>>
如何解酷派CPB包
查看>>
Linux 安装JDK,配置JAVA环境变量
查看>>
jenkins插件之小白的笔记
查看>>
html meta中的viewport指令
查看>>
windows 2008的安装
查看>>
Unity3D研究院之手游开发中所有特殊的文件夹(assetbundle与Application.persistentDataPath)...
查看>>
[DeviceOne开发]-手势动画示例分享
查看>>
《Activiti实战》读书笔记——5.1.4
查看>>
Linux文件管理类命令
查看>>
Kuerbernetes 1.11 二进制安装
查看>>
SpringMVC异步处理之@Async(附源代码 - 单元测试通过)
查看>>
undefined reference to 'pthread_setspecific '
查看>>
MediaBrowserService 音乐播放项目--IT蓝豹
查看>>
我的友情链接
查看>>
我的友情链接
查看>>
路由器的密码恢复
查看>>
linux yum命令详解
查看>>
2015.12.7 Objective-c CoreGraphic
查看>>