现在的位置: 首页 > 大数据 > hadoop > 正文
hadoop系列之十一:Zookeeper简介及安装
2014年04月16日 hadoop, 大数据 ⁄ 共 12345字 hadoop系列之十一:Zookeeper简介及安装已关闭评论 ⁄ 被围观 11,241 views+

一、Zookeeper简介:

Zookeeper 分布式服务框架是 Apache Hadoop 的一个子项目,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,如:统一命名服务、状态同步服务、集群管理、分布式应用配置项的管理等。本文将从使用者角度详细介绍 Zookeeper 的安装和配置文件中各个配置项的意义,以及分析 Zookeeper 的典型的应用场景(配置文件的管理、集群管理、同步锁、Leader 选举、队列管理等)。

1.1 数据模型

Zookeeper 会维护一个具有层次关系的数据结构,它非常类似于一个标准的文件系统,如图 1 所示:

图 1 Zookeeper 数据结构

图 1 Zookeeper 数据结构

Zookeeper 这种数据结构有如下这些特点:

  • 每个子目录项如 NameService 都被称作为 znode,这个 znode 是被它所在的路径唯一标识,如 Server1 这个 znode 的标识为 /NameService/Server1
  • znode 可以有子节点目录,并且每个 znode 可以存储数据,注意 EPHEMERAL 类型的目录节点不能有子节点目录
  • znode 是有版本的,每个 znode 中存储的数据可以有多个版本,也就是一个访问路径中可以存储多份数据
  • znode 可以是临时节点,一旦创建这个 znode 的客户端与服务器失去联系,这个 znode 也将自动删除,Zookeeper 的客户端和服务器通信采用长连接方式,每个客户端和服务器通过心跳来保持连接,这个连接状态称为 session,如果 znode 是临时节点,这个 session 失效,znode 也就删除了
  • znode 的目录名可以自动编号,如 App1 已经存在,再创建的话,将会自动命名为 App2
  • znode 可以被监控,包括这个目录节点中存储的数据的修改,子节点目录的变化等,一旦变化可以通知设置监控的客户端,这个是 Zookeeper 的核心特性,Zookeeper 的很多功能都是基于这个特性实现的,后面在典型的应用场景中会有实例介绍:

1.2 ZooKeeper 典型的应用场景

Zookeeper 从设计模式角度来看,是一个基于观察者模式设计的分布式服务管理框架,它负责存储和管理大家都关心的数据,然后接受观察者的注册,一旦这些数据的状态发生变化,Zookeeper 就将负责通知已经在 Zookeeper 上注册的那些观察者做出相应的反应,从而实现集群中类似 Master/Slave 管理模式,关于 Zookeeper 的详细架构等内部细节可以阅读 Zookeeper 的源码;下面详细介绍这些典型的应用场景,也就是 Zookeeper 到底能帮我们解决那些问题?

1.2.1 统一命名服务(Name Service)

分布式应用中,通常需要有一套完整的命名规则,既能够产生唯一的名称又便于人识别和记住,通常情况下用树形的名称结构是一个理想的选择,树形的名称结构是一个有层次的目录结构,既对人友好又不会重复。说到这里你可能想到了 JNDI,没错 Zookeeper 的 Name Service 与 JNDI 能够完成的功能是差不多的,它们都是将有层次的目录结构关联到一定资源上,但是 Zookeeper 的 Name Service 更加是广泛意义上的关联,也许你并不需要将名称关联到特定资源上,你可能只需要一个不会重复名称,就像数据库中产生一个唯一的数字主键一样。

Name Service 已经是 Zookeeper 内置的功能,你只要调用 Zookeeper 的 API 就能实现。如调用 create 接口就可以很容易创建一个目录节点。

1.2.2 配置管理(Configuration Management)

配置的管理在分布式应用环境中很常见,例如同一个应用系统需要多台 PC Server 运行,但是它们运行的应用系统的某些配置项是相同的,如果要修改这些相同的配置项,那么就必须同时修改每台运行这个应用系统的 PC Server,这样非常麻烦而且容易出错。

像这样的配置信息完全可以交给 Zookeeper 来管理,将配置信息保存在 Zookeeper 的某个目录节点中,然后将所有需要修改的应用机器监控配置信息的状态,一旦配置信息发生变化,每台应用机器就会收到 Zookeeper 的通知,然后从 Zookeeper 获取新的配置信息应用到系统中。

图 2. 配置管理结构图

图 2. 配置管理结构图

1.2.3 集群管理(Group Membership)

Zookeeper 能够很容易的实现集群管理的功能,如有多台 Server 组成一个服务集群,那么必须要一个“总管”知道当前集群中每台机器的服务状态,一旦有机器不能提供服务,集群中其它集群必须知道,从而做出调整重新分配服务策略。同样当增加集群的服务能力时,就会增加一台或多台 Server,同样也必须让“总管”知道。

Zookeeper 不仅能够帮你维护当前的集群中机器的服务状态,而且能够帮你选出一个“总管”,让这个总管来管理集群,这就是 Zookeeper 的另一个功能 Leader Election。

它们的实现方式都是在 Zookeeper 上创建一个 EPHEMERAL 类型的目录节点,然后每个 Server 在它们创建目录节点的父目录节点上调用getChildren(String path, boolean watch) 方法并设置 watch 为 true,由于是 EPHEMERAL 目录节点,当创建它的 Server 死去,这个目录节点也随之被删除,所以 Children 将会变化,这时 getChildren上的 Watch 将会被调用,所以其它 Server 就知道已经有某台 Server 死去了。新增 Server 也是同样的原理。

Zookeeper 如何实现 Leader Election,也就是选出一个 Master Server。和前面的一样每台 Server 创建一个 EPHEMERAL 目录节点,不同的是它还是一个 SEQUENTIAL 目录节点,所以它是个 EPHEMERAL_SEQUENTIAL 目录节点。之所以它是 EPHEMERAL_SEQUENTIAL 目录节点,是因为我们可以给每台 Server 编号,我们可以选择当前是最小编号的 Server 为 Master,假如这个最小编号的 Server 死去,由于是 EPHEMERAL 节点,死去的 Server 对应的节点也被删除,所以当前的节点列表中又出现一个最小编号的节点,我们就选择这个节点为当前 Master。这样就实现了动态选择 Master,避免了传统意义上单 Master 容易出现单点故障的问题。

图 3. 集群管理结构图

图 3. 集群管理结构图

1.2.4 共享锁(Locks)

共享锁在同一个进程中很容易实现,但是在跨进程或者在不同 Server 之间就不好实现了。Zookeeper 却很容易实现这个功能,实现方式也是需要获得锁的 Server 创建一个 EPHEMERAL_SEQUENTIAL 目录节点,然后调用 getChildren方法获取当前的目录节点列表中最小的目录节点是不是就是自己创建的目录节点,如果正是自己创建的,那么它就获得了这个锁,如果不是那么它就调用 exists(String path, boolean watch) 方法并监控 Zookeeper 上目录节点列表的变化,一直到自己创建的节点是列表中最小编号的目录节点,从而获得锁,释放锁很简单,只要删除前面它自己所创建的目录节点就行了。

图 4. Zookeeper 实现 Locks 的流程图

图 4. Zookeeper 实现 Locks 的流程图

1.2.5 队列管理

Zookeeper 可以处理两种类型的队列:

  • 当一个队列的成员都聚齐时,这个队列才可用,否则一直等待所有成员到达,这种是同步队列。
  • 队列按照 FIFO 方式进行入队和出队操作,例如实现生产者和消费者模型。

同步队列用 Zookeeper 实现的实现思路如下:

创建一个父目录 /synchronizing,每个成员都监控标志(Set Watch)位目录 /synchronizing/start 是否存在,然后每个成员都加入这个队列,加入队列的方式就是创建 /synchronizing/member_i 的临时目录节点,然后每个成员获取 / synchronizing 目录的所有目录节点,也就是 member_i。判断 i 的值是否已经是成员的个数,如果小于成员个数等待 /synchronizing/start 的出现,如果已经相等就创建 /synchronizing/start。

用下面的流程图更容易理解:

图 5. 同步队列流程图

图 5. 同步队列流程图

FIFO 队列用 Zookeeper 实现思路如下:

实现的思路也非常简单,就是在特定的目录下创建 SEQUENTIAL 类型的子目录 /queue_i,这样就能保证所有成员加入队列时都是有编号的,出队列时通过 getChildren( ) 方法可以返回当前所有的队列中的元素,然后消费其中最小的一个,这样就能保证 FIFO。

二、Zookeeper安装配置:

本文使用的Zookeeper是3.4.5,下载地址:http://mirrors.hust.edu.cn/apache/zookeeper/zookeeper-3.4.5/;其他都以前文安装的hadoop为基础,采用集群安装。

2.1 安装:

注意,下面所有安装过程我都在hdnode01节点上批量执行。

下载并拷贝到其他节点:

[root@hdnode01 ~]# wget http://mirrors.hust.edu.cn/apache/zookeeper/zookeeper-3.4.5/zookeeper-3.4.5.tar.gz

[root@hdnode01 ~]# for I in 2 3 4;do scp zookeeper-3.4.5.tar.gz hdnode0$I:/root ;done
zookeeper-3.4.5.tar.gz                                                                    100%   16MB  15.6MB/s   00:01
zookeeper-3.4.5.tar.gz                                                                    100%   16MB  15.6MB/s   00:00
zookeeper-3.4.5.tar.gz                                                                    100%   16MB  15.6MB/s   00:00

解压并设置权限,并做软连接:

[root@hdnode01 ~]# for I in `seq 4`;do ssh hdnode0$I tar xf /root/zookeeper-3.4.5.tar.gz -C /usr/local/ ;done

[root@hdnode01 ~]# for I in `seq 4`;do ssh hdnode0$I chown -R hadoop.hadoop /usr/local/zookeeper-3.4.5 ;done

[root@hdnode01 ~]# for I in `seq 4`;do ssh hdnode0$I "ln -sv /usr/local/zookeeper-3.4.5 /usr/local/zookeeper";done
`/usr/local/zookeeper' -> `/usr/local/zookeeper-3.4.5'
`/usr/local/zookeeper' -> `/usr/local/zookeeper-3.4.5'
`/usr/local/zookeeper' -> `/usr/local/zookeeper-3.4.5'
`/usr/local/zookeeper' -> `/usr/local/zookeeper-3.4.5'

2.2 配置:

配置环境变量:

[root@hdnode01 ~]# vi /etc/profile.d/zookeeper.sh

export ZOOKEEPER_HOME=/usr/local/zookeeper
export PATH=$ZOOKEEPER_HOME/bin:$PATH

[root@hdnode01 ~]# . /etc/profile.d/zookeeper.sh

[root@hdnode01 ~]# for I in 2 3 4;do scp /etc/profile.d/zookeeper.sh hdnode0$I:/etc/profile.d/zookeeper.sh;done
zookeeper.sh                                                                              100%   81     0.1KB/s   00:00
zookeeper.sh                                                                              100%   81     0.1KB/s   00:00
zookeeper.sh                                                                              100%   81     0.1KB/s   00:00

配置zoo.cfg:

[root@hdnode01 zookeeper]# cd /usr/local/zookeeper/conf
[root@hdnode01 conf]# ll
total 12
-rw-r--r--. 1 hadoop hadoop  535 Sep 30  2012 configuration.xsl
-rw-r--r--. 1 hadoop hadoop 2161 Sep 30  2012 log4j.properties
-rw-r--r--. 1 hadoop hadoop  808 Sep 30  2012 zoo_sample.cfg
[root@hdnode01 conf]# cp -a zoo_sample.cfg zoo.cfg

修改后有效的内容如下:

[root@hdnode01 conf]# grep -v "^#" zoo.cfg
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/hadoop/zookeeper
clientPort=2181
server.1=hdnode01:2888:3888
server.2=hdnode02:2888:3888
server.3=hdnode03:2888:3888
server.4=hdnode04:2888:3888

创建zookeeper数据目录:

[root@hdnode01 conf]# for I in `seq 4` ;do ssh hdnode0$I mkdir /hadoop/zookeeper;done

还需在这个目录中创建文件myid,在这个文本内写入1,因为server.1=hdnode01:2888:3888  server指定的是1,其他节点依次即可:

[root@hdnode01 conf]# for I in `seq 4` ;do ssh hdnode0$I "echo $I > /hadoop/zookeeper/myid ";done

[root@hdnode01 conf]# ssh hdnode02 cat /hadoop/zookeeper/myid
2
[root@hdnode01 conf]# cat /hadoop/zookeeper/myid
1

修改目录权限:

[root@hdnode01 conf]# for I in `seq 4` ;do ssh hdnode0$I chown hadoop.hadoop /hadoop/zookeeper;done

拷贝配置文件到其他节点:

[root@hdnode01 conf]# for I in 2 3 4 ;do scp zoo.cfg hdnode0$I:/usr/local/zookeeper/conf/;done
zoo.cfg                                                                                   100%  923     0.9KB/s   00:00
zoo.cfg                                                                                   100%  923     0.9KB/s   00:00
zoo.cfg                                                                                   100%  923     0.9KB/s   00:00

此时就可以启动了,每台机器都要执行:

/usr/local/zookeeper/bin/zkServer.sh start

zkServer.sh  status在不同的机器上使用该命令,其中三台显示follower,一台显示leader。

2.3 基本使用:

使用zkCli.sh  -server hdnode01:2181 可以启动zookeeper客户端脚本,效果如下:

[hadoop@hdnode01 ~]$ zkCli.sh -server hdnode01:2181
Connecting to hdnode01:2181
2014-04-16 08:17:59,179 [myid:] - INFO  [main:Environment@100] - Client environment:zookeeper.version=3.4.5-1392090, built on 09/30/2012 17:52 GMT
2014-04-16 08:17:59,182 [myid:] - INFO  [main:Environment@100] - Client environment:host.name=hdnode01
2014-04-16 08:17:59,184 [myid:] - INFO  [main:Environment@100] - Client environment:java.version=1.6.0_24
2014-04-16 08:17:59,184 [myid:] - INFO  [main:Environment@100] - Client environment:java.vendor=Sun Microsystems Inc.
2014-04-16 08:17:59,185 [myid:] - INFO  [main:Environment@100] - Client environment:java.home=/usr/local/jdk1.6.0_24/jre
2014-04-16 08:17:59,187 [myid:] - INFO  [main:Environment@100] - Client environment:java.class.path=/usr/local/zookeeper/bin/../build/classes:/usr/local/zookeeper/bin/../build/lib/*.jar:/usr/local/zookeeper/bin/../lib/slf4j-log4j12-1.6.1.jar:/usr/local/zookeeper/bin/../lib/slf4j-api-1.6.1.jar:/usr/local/zookeeper/bin/../lib/netty-3.2.2.Final.jar:/usr/local/zookeeper/bin/../lib/log4j-1.2.15.jar:/usr/local/zookeeper/bin/../lib/jline-0.9.94.jar:/usr/local/zookeeper/bin/../zookeeper-3.4.5.jar:/usr/local/zookeeper/bin/../src/java/lib/*.jar:/usr/local/zookeeper/bin/../conf:
2014-04-16 08:17:59,188 [myid:] - INFO  [main:Environment@100] - Client environment:java.library.path=/usr/local/jdk1.6.0_24/jre/lib/amd64/server:/usr/local/jdk1.6.0_24/jre/lib/amd64:/usr/local/jdk1.6.0_24/jre/../lib/amd64:/usr/java/packages/lib/amd64:/usr/lib64:/lib64:/lib:/usr/lib
2014-04-16 08:17:59,190 [myid:] - INFO  [main:Environment@100] - Client environment:java.io.tmpdir=/tmp
2014-04-16 08:17:59,190 [myid:] - INFO  [main:Environment@100] - Client environment:java.compiler=<NA>
2014-04-16 08:17:59,192 [myid:] - INFO  [main:Environment@100] - Client environment:os.name=Linux
2014-04-16 08:17:59,192 [myid:] - INFO  [main:Environment@100] - Client environment:os.arch=amd64
2014-04-16 08:17:59,193 [myid:] - INFO  [main:Environment@100] - Client environment:os.version=2.6.32-431.11.2.el6.x86_64
2014-04-16 08:17:59,194 [myid:] - INFO  [main:Environment@100] - Client environment:user.name=hadoop
2014-04-16 08:17:59,195 [myid:] - INFO  [main:Environment@100] - Client environment:user.home=/home/hadoop
2014-04-16 08:17:59,197 [myid:] - INFO  [main:Environment@100] - Client environment:user.dir=/home/hadoop
2014-04-16 08:17:59,201 [myid:] - INFO  [main:ZooKeeper@438] - Initiating client connection, connectString=hdnode01:2181 sessionTimeout=30000 watcher=org.apache.zookeeper.ZooKeeperMain$MyWatcher@42b988a6
Welcome to ZooKeeper!
2014-04-16 08:17:59,249 [myid:] - INFO  [main-SendThread(hdnode01:2181):ClientCnxn$SendThread@966] - Opening socket connection to server hdnode01/172.18.8.201:2181. Will not attempt to authenticate using SASL (Unable to locate a login configuration)
JLine support is enabled
2014-04-16 08:17:59,257 [myid:] - INFO  [main-SendThread(hdnode01:2181):ClientCnxn$SendThread@849] - Socket connection established to hdnode01/172.18.8.201:2181, initiating session
2014-04-16 08:17:59,317 [myid:] - INFO  [main-SendThread(hdnode01:2181):ClientCnxn$SendThread@1207] - Session establishment complete on server hdnode01/172.18.8.201:2181, sessionid = 0x456a9f41680000, negotiated timeout = 30000

WATCHER::

WatchedEvent state:SyncConnected type:None path:null
[zk: hdnode01:2181(CONNECTED) 0] help
ZooKeeper -server host:port cmd args
connect host:port
get path [watch]
ls path [watch]
set path data [version]
rmr path
delquota [-n|-b] path
quit
printwatches on|off
create [-s] [-e] path data acl
stat path [watch]
close
ls2 path [watch]
history
listquota path
setAcl path acl
getAcl path
sync path
redo cmdno
addauth scheme auth
delete path [version]
setquota -n|-b val path
[zk: hdnode01:2181(CONNECTED) 1] connect hdnode02:2181
2014-04-16 08:18:54,689 [myid:] - INFO  [main-EventThread:ClientCnxn$EventThread@509] - EventThread shut down
2014-04-16 08:18:54,690 [myid:] - INFO  [main:ZooKeeper@684] - Session: 0x456a9f41680000 closed
2014-04-16 08:18:54,691 [myid:] - INFO  [main:ZooKeeper@438] - Initiating client connection, connectString=hdnode02:2181 sessionTimeout=30000 watcher=org.apache.zookeeper.ZooKeeperMain$MyWatcher@19c247a0
2014-04-16 08:18:54,698 [myid:] - INFO  [main-SendThread(hdnode02:2181):ClientCnxn$SendThread@966] - Opening socket connection to server hdnode02/172.18.8.202:2181. Will not attempt to authenticate using SASL (Unable to locate a login configuration)
ZooKeeper -server host:port cmd args
connect host:port
get path [watch]
ls path [watch]
set path data [version]
rmr path
delquota [-n|-b] path
quit
printwatches on|off
create [-s] [-e] path data acl
stat path [watch]
close
ls2 path [watch]
history
listquota path
setAcl path acl
getAcl path
sync path
redo cmdno
addauth scheme auth
delete path [version]
setquota -n|-b val path
[zk: hdnode02:2181(CONNECTING) 2] 2014-04-16 08:18:54,703 [myid:] - INFO  [main-SendThread(hdnode02:2181):ClientCnxn$SendThread@849] - Socket connection established to hdnode02/172.18.8.202:2181, initiating session
2014-04-16 08:18:54,728 [myid:] - INFO  [main-SendThread(hdnode02:2181):ClientCnxn$SendThread@1207] - Session establishment complete on server hdnode02/172.18.8.202:2181, sessionid = 0x1456a9f41600000, negotiated timeout = 30000

WATCHER::

WatchedEvent state:SyncConnected type:None path:null

[zk: hdnode02:2181(CONNECTED) 2]

[zk: hdnode02:2181(CONNECTED) 2] quit
Quitting...
2014-04-16 08:21:52,314 [myid:] - INFO  [main:ZooKeeper@684] - Session: 0x1456a9f41600000 closed
2014-04-16 08:21:52,314 [myid:] - INFO  [main-EventThread:ClientCnxn$EventThread@509] - EventThread shut down

  • quit   退出
  • help  可是查看帮助命令

问题:

我在运行的时候,第一次完全正常,但第二次发现出现如下错误:

[hadoop@hdnode01 ~]$ zkServer.sh status
JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Error contacting service. It is probably not running.

可能原因:

  • 没有在每个节点上都执行:zkServer.sh  start
  • 配置没有同步
  • 检查各节点目录权限

抱歉!评论已关闭.

×