Zookeeper实现分布式锁

时间:2020-05-11 10:50:05 阅读:101次
Zookeeper实现分布式锁

获取锁


1.首先,在Zookeeper当中创建一个持久节点ParentLock。当第一个客户端想要获得锁时,需要在ParentLock这个节点下面创建一个临时顺序节点 Lock1。

2. 之后,Client1查找ParentLock下面所有的临时顺序节点并排序,判断自己所创建的节点Lock1是不是顺序最靠前的一个。如果是第一个节点,则成功获得锁。 

3. 这时候,如果再有一个客户端 Client2 前来获取锁,则在ParentLock下载再创建一个临时顺序节点Lock2。Client2查找ParentLock下面所有的临时顺序节点并排序,判断自己所创建的节点Lock2是不是顺序最靠前的一个,结果发现节点Lock2并不是最小的。于是,Client2向排序仅比它靠前的节点Lock1注册Watcher,用于监听Lock1节点是否存在。这意味着Client2抢锁失败,进入了等待状态。 

4. 这时候,如果又有一个客户端Client3前来获取锁,则在ParentLock下载再创建一个临时顺序节点Lock3。 Client3查找ParentLock下面所有的临时顺序节点并排序,判断自己所创建的节点Lock3是不是顺序最靠前的一个,结果同样发现节点Lock3并不是最小的。于是,Client3向排序仅比它靠前的节点Lock2注册Watcher,用于监听Lock2节点是否存在。这意味着Client3同样抢锁失败,进入了等待状态。 

5. 这样一来,Client1得到了锁,Client2监听了Lock1,Client3监听了Lock2。这恰恰形成了一个等待队列,很像是Java当中ReentrantLock所依赖的AQS(AbstractQueuedSynchronizer)。


释放锁

1.任务完成,客户端显示释放

当任务完成时,Client1会显示调用删除节点Lock1的指令。

2.任务执行过程中,客户端崩溃

获得锁的Client1在任务执行过程中,如果Duang的一声崩溃,则会断开与Zookeeper服务端的链接。根据临时节点的特性,相关联的节点Lock1会随之自动删除。 



由于Client2一直监听着Lock1的存在状态,当Lock1节点被删除,Client2会立刻收到通知。这时候Client2会再次查询ParentLock下面的所有节点,确认自己创建的节点Lock2是不是目前最小的节点。如果是最小,则Client2顺理成章获得了锁。 

同理,如果Client2也因为任务完成或者节点崩溃而删除了节点Lock2,那么Client3就会接到通知。 

最终,Client3成功得到了锁。 


docker搭建zookeeper集群

  1. 官方镜像 docker pull zookeeper

  2. #创建自定义网络
    docker network create zoonet --subnet=173.18.0.0/24

   3. vi docker-compose.yml

version: '3.1'

services:
  zoo1:
    image: zookeeper
    restart: always
    privileged: true
    container_name: zoo1
    hostname: zoo1
    ports:
      - 2181:2181
    volumes: # 挂载数据
      - /usr/local/zookeeper-cluster/node1/data:/data
      - /usr/local/zookeeper-cluster/node1/datalog:/datalog
    environment:
      ZOO_MY_ID: 1
      ZOO_SERVERS: server.1=0.0.0.0:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=zoo3:2888:3888;2181
    networks:
      default:
        ipv4_address: 173.18.0.11

  zoo2:
    image: zookeeper
    restart: always
    privileged: true
    hostname: zoo2
    container_name: zoo2
    ports:
      - 2182:2181
    volumes: # 挂载数据
      - /usr/local/zookeeper-cluster/node2/data:/data
      - /usr/local/zookeeper-cluster/node2/datalog:/datalog
    environment:
      ZOO_MY_ID: 2
      ZOO_SERVERS: server.1=zoo1:2888:3888;2181 server.2=0.0.0.0:2888:3888;2181 server.3=zoo3:2888:3888;2181
    networks:
      default:
        ipv4_address: 173.18.0.12

  zoo3:
    image: zookeeper
    restart: always
    privileged: true
    hostname: zoo3
    container_name: zoo3
    ports:
      - 2183:2181
    volumes: # 挂载数据
      - /usr/local/zookeeper-cluster/node3/data:/data
      - /usr/local/zookeeper-cluster/node3/datalog:/datalog
    environment:
      ZOO_MY_ID: 3
      ZOO_SERVERS: server.1=zoo1:2888:3888;2181 server.2=zoo2:2888:3888;2181 server.3=0.0.0.0:2888:3888;2181
    networks:
      default:
        ipv4_address: 173.18.0.13

networks: # 自定义网络
  default:
    external:
      name: zoonet


4. 查看状态

docker exec -it zoo1 bash   

./bin/zkServer.sh status


docker exec -it zoo2 bash   

./bin/zkServer.sh status


docker exec -it zoo3 bash   

./bin/zkServer.sh status



PHP使用


libzookeeper安装

cd ~/apache-zookeeper-3.5.7/zookeeper-client/zookeeper-client-c

autoreconf -if
./configure --prefix=/usr/local/libzookeeper
make && make install


下载php扩展安装包

https://pecl.php.net/package/zookeeper

phpize
./configure --with-php-config=/usr/local/php7/bin/php-config --with-libzookeeper-dir=/usr/local/libzookeeper
make && make install


Follow: 

https://blog.csdn.net/kongmin_123/article/details/82081953

https://www.cnblogs.com/LUA123/p/11428113.html


扫描二维码关注程序员爱笔记,接收更多资讯

评论

快速评论