一、概述

  1.是什么?

    根据凡技术必登其官网的原则,我们先去官网瞅一瞅http://zookeeper.apache.org/

    Apache ZooKeeper is an effort to develop and maintain an open-source server which enables highly reliable distributed coordination   

  1. 分布式:一个业务分拆多个子业务,部署在不同的服务器上
  2. 集群:同一个业务,部署在多个服务器上
    形象的说:
  小饭店原来只有一个厨师,切菜洗菜备料炒菜全干。后来客人多了,厨房一个厨师忙不过来,又请了个厨师,两个厨师都能炒一样的菜,这两个厨师的关系是集群。为了让厨师专心炒菜,把菜做到极致,又请了个配菜师负责切菜,备菜,备料,厨师和配菜师的关系是分布式,一个配菜师也忙不过来了,又请了个配菜师,两个配菜师关系是集群

作者:张鹏飞
链接:https://www.zhihu.com/question/20004877/answer/112124929
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

 Zookeeper是一个分布式协调服务;就是为用户的分布式应用程序提供协调服务

  A、zookeeper是为别的分布式程序服务的

  B、Zookeeper本身就是一个分布式程序(只要有半数以上节点存活,zk就能正常服务

  C、Zookeeper所提供的服务涵盖:主从协调、服务器节点动态上下线、统一配置管理、分布式共享锁、统一名称服务……

  D、虽然说可以提供各种服务,但是zookeeper在底层其实只提供了两个功能:

    管理(存储,读取)用户程序提交的数据;

    并为用户程序提供数据节点监听服务;

  更多的深入浅出的介绍,参考https://www.cnblogs.com/wuxl360/p/5817471.html

  zookeeper的W3C教程,参考https://www.w3cschool.cn/zookeeper/zookeeper_overview.html

  选举重点清晰讲解,参考http://blog.csdn.net/gaoshan12345678910/article/details/67638657

  2.集群中的角色

      Zookeeper集群的角色:  Leader 和  follower  (Observer)

    只要集群中有半数以上节点存活,集群就能提供服务

二、安装

  以下请使用hadoop用户!并配置hosts安装为好!

  ###zk有相关的可视化工具,详情参考IDEA插件章节篇

  通过克隆复制好3台机器后,使用rz命令先上传文件

  (安装前提需要有JDK)

  解压:

  1. tar -zxvf zookeeper-3.4..tar.gz -C /opt/zookeeper

  配置环境变量:

  1. sudo vi /etc/profile
  1. export ZOOKEEPER_HOME=/opt/zookeeper/zookeeper-3.4.
  2. export PATH=$PATH:$ZOOKEEPER_HOME/bin

  生效环境变量:

  1. source /etc/profile

  以上配环境步骤3台机器均需要更改!

  修改配置文件:

  1. cd zookeeper-3.4.5/conf
  1. cp zoo_sample.cfg zoo.cfg
  1. vim zoo.cfg

  增加以下内容:

  1. dataDir=/opt/zookeeper/zookeeper-3.4./data
  2. dataLogDir=/opt/zookeeper/zookeeper-3.4./log
    #主机名:心跳端口:数据端口
  3. server.=192.168.137.128::
  4. server.=192.168.137.138::
  5. server.=192.168.137.148::

  创建文件夹:

  1. cd /opt/zookeeper/zookeeper-3.4.
  1. mkdir -m data
  1. mkdir -m log

  创建myid:

  1. cd data
  2. vim myid

  myid内容:

    1

  下发集群到其他机器上:

  1. scp -r /opt/zookeeper/zookeeper-3.4. root@192.168.137.138:/opt/zookeeper/
  2. scp -r /opt/zookeeper/zookeeper-3.4. root@192.168.137.148:/opt/zookeeper/

 其实应当使用hadoop用户,并配置hosts,换成如下命令:

  1. scp -r zookeeper-3.4./ mini2:/home/hadoop/apps/

   到两台机器上分别修改myid为2 3

  启动机器:

  1. zkServer.sh start

  查看状态:

  1. zkServer.sh status

  出现报错请关闭防火墙重试!

三、命令行客户端的使用

  1.命令行客户端

  

  

  可以看到连接上了自己这一台

  打开帮助信息,可以 看到如果想要连接其他的服务器,可以使用-server host:port的形式,或者在当前使用connect host:port的形式

  1. [zk: localhost:(CONNECTED) ] help
  2. ZooKeeper -server host:port cmd args
  3. stat path [watch]
  4. set path data [version]
  5. ls path [watch]
  6. delquota [-n|-b] path
  7. ls2 path [watch]
  8. setAcl path acl
  9. setquota -n|-b val path
  10. history
  11. redo cmdno
  12. printwatches on|off
  13. delete path [version]
  14. sync path
  15. listquota path
  16. rmr path
  17. get path [watch]
  18. create [-s] [-e] path data acl
  19. addauth scheme auth
  20. quit
  21. getAcl path
  22. close
  23. connect host:port

  切换服务器:

[zk: localhost:2181(CONNECTED) 0] connect 192.168.137.138:2181

  这样就切换过来了:

  2.zookeeper的数据的结构

  1. 、层次化的目录结构,命名符合常规文件系统规范(见下图)
  2. 、每个节点在zookeeper中叫做znode,并且其有一个唯一的路径标识
  3. 、节点Znode可以包含数据和子节点(但是EPHEMERAL类型的节点不能有子节点,下一页详细讲解)
  4. 、客户端应用可以在节点上设置监视器(后续详细讲解)

  如图所示:

  

  节点类型:

  1. Znode有两种类型:
  2. 短暂(ephemeral)(断开连接自己删除)
  3. 持久(persistent)(断开连接不删除)
  4. Znode有四种形式的目录节点(默认是persistent
  5. PERSISTENT
  6. PERSISTENT_SEQUENTIAL(持久序列/test0000000019
  7. EPHEMERAL
  8. EPHEMERAL_SEQUENTIAL
  9. 、创建znode时设置顺序标识znode名称后会附加一个值,顺序号是一个单调递增的计数器,由父节点维护
  10. 、在分布式系统中,顺序号可以被用于为所有的事件进行全局排序,这样客户端可以通过顺序号推断事件的顺序

  3.客户端操作

    基本上操作可以在help列出的命令中查看

    1.查看

  1. [zk: 192.168.137.138:(CONNECTED) ] ls /
  2. [zookeeper]

  //可以看到只有一个根节点

    2.创建znode

      -e参数:短暂节点

      -s节点:是否带序号(SEQUENTIAL)

      主要短暂节点下不能有子节点!

  1. [zk: 192.168.137.138:(CONNECTED) ] create /app1 "this is app1"
  2. Created /app1
  3. [zk: 192.168.137.138:(CONNECTED) ] ls /
  4. [zookeeper, app1]

  //可以看到这里创建了一个示例的字符串节点,由于默认是持久节点,如果需要创建短暂节点,请使用-e参数!

    创建带序号的znode:

  1. [zk: 192.168.137.138:(CONNECTED) ] create /test
  2. Created /test
  3. [zk: 192.168.137.138:(CONNECTED) ] create -s /test/aaa
  4. Created /test/aaa0000000000
  5. [zk: 192.168.137.138:(CONNECTED) ] create -s /test/aaa
  6. Created /test/aaa0000000001

  //可以看到节点自动带了编号,所以即使重名也是允许的!当然只在次目录从0开始标序号,切换目录创建带序号的将会重新从0开始

  当然,/app1还可以有子节点

  1. [zk: 192.168.137.138:(CONNECTED) ] create /app1/server01 "192.168.137.138,100"
  2. Created /app1/server01

    3.查看znode数据

  1. [zk: 192.168.137.138:(CONNECTED) ] ls /app1
  2. [server01]
  3. [zk: 192.168.137.138:(CONNECTED) ] get /app1
  4. "this
  5. cZxid = 0x100000008
  6. ctime = Wed Jan :: CST
  7. mZxid = 0x100000008
  8. mtime = Wed Jan :: CST
  9. pZxid = 0x100000009
  10. cversion =
  11. dataVersion =
  12. aclVersion =
  13. ephemeralOwner = 0x0
  14. dataLength =
  15. numChildren =

  //可以看到它这里直接以空格就给分割了,不直接把引号内容当作数据;当然,我们写Java API的时候肯定是不会以空格就分断的,这仅仅是客户端的问题

  4.修改znode数据

    修改的数据在各个节点之间基本上是实时同步的!

  1. [zk: 192.168.137.138:(CONNECTED) ] set /app1 yyy
  2. cZxid = 0x100000008
  3. ctime = Wed Jan :: CST
  4. mZxid = 0x10000000d
  5. mtime = Wed Jan :: CST
  6. pZxid = 0x100000009
  7. cversion =
  8. dataVersion =
  9. aclVersion =
  10. ephemeralOwner = 0x0
  11. dataLength =
  12. numChildren =

  5.删除znode

  1. znode 删除(只能删除没有子节点的)
  2. [zk: 202.115.36.251:(CONNECTED) ] delete /zk
  3. 删除节点:rmr(整个节点和子节点全部删除)
  4. [zk: 202.115.36.251:(CONNECTED) ] rmr /zk

  更多增删改查的实例,参考https://www.cnblogs.com/sherrykid/p/5813148.html

  6.监听

    其他机器发生修改了,本机立马可以收到通知!

    其中get监听是监听内容的变化(子节点变化不会影响)

    使用ls /app1 watch时,再创建子节点就会有监听了!

  1. [zk: 192.168.137.138:(CONNECTED) ] get /app1 watch
  2. yyy
  3. cZxid = 0x100000008
  4. ctime = Wed Jan :: CST
  5. mZxid = 0x10000000d
  6. mtime = Wed Jan :: CST
  7. pZxid = 0x100000009
  8. cversion =
  9. dataVersion =
  10. aclVersion =
  11. ephemeralOwner = 0x0
  12. dataLength =
  13. numChildren =
  14. [zk: 192.168.137.138:(CONNECTED) ]
  15. WATCHER::
  16.  
  17. WatchedEvent state:SyncConnected type:NodeDataChanged path:/app1

  更多znode详解,参考http://blog.csdn.net/lihao21/article/details/51810395

大数据入门第二天——基础部分之zookeeper(上)的更多相关文章

  1. 大数据入门第二天——基础部分之zookeeper(下)

    一.集群自启动脚本 1.关闭zk [root@localhost bin]# jps Jps QuorumPeerMain [root@localhost bin]# //kill或者stop都是可以 ...

  2. 大数据入门第一天——基础部分之Linux基础(环境准备与先导知识)

    一.Linux环境安装 1.VM的安装 参考Linux环境搭建随笔:http://www.cnblogs.com/jiangbei/p/7248054.html 2.CentOS的安装 同参考上述随笔 ...

  3. 大数据入门第二十二天——spark(一)入门与安装

    一.概述 1.什么是spark 从官网http://spark.apache.org/可以得知: Apache Spark™ is a fast and general engine for larg ...

  4. 大数据入门第二十五天——elasticsearch入门

    一.概述 推荐路神的ES权威指南翻译:https://es.xiaoleilu.com/010_Intro/00_README.html 官网:https://www.elastic.co/cn/pr ...

  5. 大数据入门第二十二天——spark(二)RDD算子(1)

    一.RDD概述 1.什么是RDD RDD(Resilient Distributed Dataset)叫做分布式数据集,是Spark中最基本的数据抽象,它代表一个不可变.可分区.里面的元素可并行计算的 ...

  6. 大数据入门第二十五天——logstash入门

    一.概述 1.logstash是什么 根据官网介绍: Logstash 是开源的服务器端数据处理管道,能够同时 从多个来源采集数据.转换数据,然后将数据发送到您最喜欢的 “存储库” 中.(我们的存储库 ...

  7. 大数据入门第二十四天——SparkStreaming(一)入门与示例

    一.概述 1.什么是spark streaming Spark Streaming is an extension of the core Spark API that enables scalabl ...

  8. 大数据入门第二十二天——spark(三)自定义分区、排序与查找

    一.自定义分区 1.概述 默认的是Hash的分区策略,这点和Hadoop是类似的,具体的分区介绍,参见:https://blog.csdn.net/high2011/article/details/6 ...

  9. 大数据入门第二十四天——SparkStreaming(二)与flume、kafka整合

    前一篇中数据源采用的是从一个socket中拿数据,有点属于“旁门左道”,正经的是从kafka等消息队列中拿数据! 主要支持的source,由官网得知如下: 获取数据的形式包括推送push和拉取pull ...

随机推荐

  1. Linux 系统下 centOS 7 ipconfig 提示没有安装

    首先更正一下,在Linux系统下,查看IP地址,指令是ifconfig 没有root权限情况下,安装指令为 sudo yum -y install net-tool 有root权限的话,直接执行 yu ...

  2. winform listbox 使用DrawMode使用OwnerDrawVarialbe或OwnerDrawFixed无水平滚动条

    因为需要使用DrawMode自行DrawItem,所以需要将DrawMode设置为OwnerDrawVarialbe或OwnerDrawFixed模式,代码如下: private void listB ...

  3. Linux学习之CentOS(五)----网卡的配置

    [声明] 欢迎转载,但请保留文章原始出处→_→ 生命壹号:http://www.cnblogs.com/smyhvae/ 文章来源:http://www.cnblogs.com/smyhvae/p/3 ...

  4. Linux 系统的/etc目录

    /etc目录下的重要文件 /etc/sysconfig/network 指定服务器上的网络配置信息 /etc/rc.d/init.d/network 网络配置脚本信息 网络配置脚本,开机通过脚本文件来 ...

  5. Linux sudo详解

    sudo:控制用户对系统命令的使用权限,root允许的操作.通过sudo可以提高普通用户的操作权限,不过这个权限是需要进行配置才可使用. 常用的命令展示 配置sudo的2种方式 1. visodu 编 ...

  6. Springboot 报application.properites文件找不到的解决方法

        部署项目遇到了找不到application.properties的问题.网上搜了找不到答案,后面经过测试发现,问题在于clean了maven之后,target包还没删除,所以编译的时候才会出现 ...

  7. tomcat6 集群配置

    1. 概要 web容器在做集群配置时,有3点需要注意: 1.1. 负载均衡配置: 1.2. session共享: 1.3. 若做的是单机集群(多个tomcat安装在同一台机器上),需要注意端口冲突问题 ...

  8. BZOJ4241:历史研究(回滚莫队)

    Description IOI国历史研究的第一人——JOI教授,最近获得了一份被认为是古代IOI国的住民写下的日记.JOI教授为了通过这份日记来研究古代IOI国的生活,开始着手调查日记中记载的事件. ...

  9. ansible-playbook快速入门

    一.yaml语法: 1. yaml语法编写 1.1 同层级的字段通过相同缩进表示 1.2 map结构里面key/value用‘:’来分隔 1.3 key/value可以同行写,也可以换行写,换行写必须 ...

  10. ansible--02

    一.目录结构: 二.配置文件解析 1. Inventory:主机列表配置文档 2.ansible.cfg:可存放多地 2.1 ansible读取此conf的顺序:当前命令执行目录-- >用户家目 ...