本文共 2254 字,大约阅读时间需要 7 分钟。
基于以下这些原因,zookeeper并没有用paxos作为自己实现的协议,取而代之采用了一种称为zab的协议,全称是zookeeper atomic broadcast。
在base-paxos算法中,不存在leader这样的角色,于是存在这样一种情况,即P1提交了一个proposal n1并且通过了prepare阶段;此时P2提交了一个proposal n2(n2>n1)并且也通过了prepare阶段;P1在commit时因为已经通过了n2而被拒绝;于是P1继续提交一个proposal n3并且通过prepare阶段;巧的是此时P2开始commit了,由于n2<n3再次被拒绝……如此循环往复。这种情况被称为活锁。即整个系统都没死,但由于互相请求资源而被互相锁死。为了不发生活锁的情况,最简单的方式当然是缩减proposer到一个,这样就不会发生互相请求锁死的情况,也即退化。事实上很多后来的工业级协议,都是paxos协议的退化或者变种。
为了解决活锁问题,出现了multi-paxos;
为了解决通信次数较多的问题,出现了fast-paxos;
为了尽量减少冲突,出现了epaxos。
可以看到,工业级实现需要考虑更多的方面,诸如性能,异常等等。这也是许多分布式的一致性框架并非真正基于paxos来实现的原因。
对于paxos算法来说,不能保证两次提交最终的顺序,而zookeeper需要做到这点。
paxos存在活锁问题,为了解决活锁问题,zab引入了leader,但是单leader就有单点问题,zab采用的方法是leader选举(没有采用主备,因为主备过于固定,不够分布式)。
leader选举就必然出现状态不一致的情况,于是就有需要有同步的过程。
zab协议分为4个阶段,即阶段0为leader选举,(阶段1为发现,阶段2为同步)恢复阶段,阶段3为广播,而实际实现时将发现及同步阶段合并为一个恢复阶段。
当集群中没有leader或者其他人感受不到leader时会进入这一阶段,这一阶段的主要目的是选出zxid最大的节点作为准leader。
主要目的是根据准leader的情况将数据同步到其他节点。同步完成后准leader变为leader。详见奔溃恢复案例。
主要目的是leader收到请求,并将请求转为proposal,其他节点根据协议进行批准或通过。
broadcast阶段事实上就是一个两阶段提交的简化版。其所有过程都跟两阶段提交一致,唯一不一致的是不能做事务的回滚。
广播的过程类似于二阶段提交,但是如果实现完整的两阶段提交,那就解决了一致性问题(paxos),没必要发明新协议了,所以zab实际上抛弃了两阶段提交的事务回滚。
一台follower只能回复ACK或者干脆就不回复了,leader只要收到过半的机器回复即通过proposal。
但是这样的设计就存在很多问题:
比如如果一个follower因为网络问题从头到尾一直没收到过leader的proposal,后续的询问刚好落到这台follower上该如何处理?
比如leader第一阶段收到了所有follower的ACK后提交,然后通知其他follower提交,这时自己挂了该如何处理?于是诞生了崩溃恢复阶段,旨在对各种不一致情况做出恢复和处理。
对于选举和恢复阶段。zab算法需要确保两件事。
场景:leader发送了proposal,follower1和follower2回复了ACK给leader,leader向所有follower发送commit请求并commit自身,此时leader挂了。leader已经提交,但是follower尚未提交,这会存在不一致的情况。
确保方式:
通过以上方式,能够确保提交过的proposal不会出现丢弃的情况。
场景:leader收到请求,包装为proposal,此时网络挂了或者leader挂了导致其他follower没收到请求,此时进入崩溃恢复阶段,此时其他follower选主并成功之后这个挂了 的leader以follower的身份加入,此时它有一个多余的proposal,与其他节点不一致。
确保方式:
通过zxid的大小直接确定。zxid的编码方式为高32位为epoch(即纪元,可以理解为代),低32位为每个proposal顺序递增的数字。每次变换一个leader,则epoch加一,可以理解为改朝换代了,新朝代的zxid必然比旧朝代的zxid大,新代的leader可以要求将旧朝代的proposal清除。
转载地址:http://mtrxx.baihongyu.com/