经过《ZooKeeper入门》后,我们学会了ZooKeeper的基本用法。
实际上ZooKeeper的应用是非常广泛的,实现分布式锁只是其中一种。接下来我们就ZooKeeper实现分布式锁解决秒杀超卖问题进行展开。
秒杀活动应该都不陌生,不用过多解释。
不难想象,在这种"秒杀"的场景中,实际上会出现多个用户争抢"资源"的情况,也就是多个线程同时并发,这种情况是很容易出现数据不准确,也就是超卖问题。
下面使用程序演示,我使用了SpringBoot2.0、Mybatis、Mybatis-Plus、SpringMVC搭建了一个简单的项目,github地址:
https://github.com/yehongzhi/mall
创建一个商品信息表:
CREATE TABLE `tb_commodity_info` (
`id` varchar(32) NOT NULL,
`commodity_name` varchar(512) DEFAULT NULL COMMENT '商品名称',
`commodity_price` varchar(36) DEFAULT '0' COMMENT '商品价格',
`number` int(10) DEFAULT '0' COMMENT '商品数量',
`description` varchar(2048) DEFAULT '' COMMENT '商品描述',
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COMMENT='商品信息表';
添加一个商品[叉烧包]进去:
核心的代码逻辑是这样的:
@Override
public boolean purchaseCommodityInfo(String commodityId, Integer number) throws Exception {
//1.先查询数据库中商品的数量
TbCommodityInfo commodityInfo = commodityInfoMapper.selectById(commodityId);
//2.判断商品数量是否大于0,或者购买的数量大于库存
Integer count = commodityInfo.getNumber();
if (count <= 0 || number > count) {
//商品数量小于或者等于0,或者购买的数量大于库存,则返回false
return false;
}
//3.如果库存数量大于0,并且购买的数量小于或者等于库存。则更新商品数量
count -= number;
commodityInfo.setNumber(count);
boolean bool = commodityInfoMapper.updateById(commodityInfo) == 1;
if (bool) {
//如果更新成功,则打印购买商品成功
System.out.println("购买商品[ " + commodityInfo.getCommodityName() + " ]成功,数量为:" + number);
}
return bool;
}
逻辑示意图如下:
上面这个逻辑,如果单线程请求的话是没有问题的。
但是多线程的话就出现问题了。现在我就创建多个线程,通过HttpClient进行请求,看会发生什么:
public static void main(String[] args) throws Exception {
//请求地址
String url = "http://localhost:8080/mall/commodity/purchase";
//请求参数,商品ID,数量
Map<String, String> map = new HashMap<>();
map.put("commodityId", "4f863bb5266b9508e0c1f28c61ea8de1");
map.put("number", "1");
//创建10个线程通过HttpClient进行发送请求,测试
for (int i = 0; i < 10; i++) {
//这个线程的逻辑仅仅是发送请求
CommodityThread commodityThread = new CommodityThread(url, map);
commodityThread.start();
}
}
说明一下,叉烧包的数量是100,这里有10个线程同时去购买,假设都购买成功的话,库存数量应该是90。
实际上,10个线程的确都购买成功了:
但是数据库的商品库存,却不准确:
上面的场景,大概流程如下所示:
可以看出问题的关键在于两个线程"同时"去查询剩余的库存,然后更新库存导致的。要解决这个问题,其实只要保证多个线程在这段逻辑是顺序执行即可,也就是加锁。
本地锁JDK提供有两种:synchronized和Lock锁。
两种方式都可以,我这里为了简便,使用synchronized:
//使用synchronized修饰方法
@Override
public synchronized boolean purchaseCommodityInfo(String commodityId, Integer number) throws Exception {
//省略...
}
然后再测试刚刚多线程并发抢购的情况,看看结果:
问题得到解决!!!
你以为事情就这样结束了吗,看了看进度条,发现事情并不简单。
我们知道在实际项目中,往往不会只部署一台服务器,所以不妨我们启动两台服务器,端口号分别是8080、8081,模拟实际项目的场景:
写一个交替请求的测试脚本,模拟多台服务器分别处理请求,用户秒杀抢购的场景:
public static void main(String[] args) throws Exception {
//请求地址
String url = "http://localhost:%s/mall/commodity/purchase";
//请求参数,商品ID,数量
Map<String, String> map = new HashMap<>();
map.put("commodityId", "4f863bb5266b9508e0c1f28c61ea8de1");
map.put("number", "1");
//创建10个线程通过HttpClient进行发送请求,测试
for (int i = 0; i < 10; i++) {
//8080、8081交替请求,每个服务器处理5个请求
String port = "808" + (i % 2);
CommodityThread commodityThread = new CommodityThread(String.format(url, port), map);
commodityThread.start();
}
}
首先看购买的情况,肯定都是购买成功的:
关键是库存数量是否正确:
有10个请求购买成功,库存应该是90才对,这里库存是95。事实证明本地锁是不能解决多台服务器秒杀抢购出现超卖的问题。
为什么会这样呢,请看示意图:
其实和多线程问题是差不多的原因,多个服务器去查询数据库,获取到相同的库存,然后更新库存,导致数据不正确。要保证库存的数量正确,关键在于多台服务器要保证只能一台服务器在执行这段逻辑,也就是要加分布式锁。
这也体现出分布式锁的作用,就是要保证多台服务器只能有一台服务器执行。
分布式锁有三种实现方式,分别是redis、ZooKeeper、数据库(比如mysql)。
实际上是利用ZooKeeper的临时顺序节点的特性实现分布式锁。怎么实现呢?
假设现在有一个客户端A,需要加锁,那么就在"/Lock"路径下创建一个临时顺序节点。然后获取"/Lock"下的节点列表,判断自己的序号是否是最小的,如果是最小的序号,则加锁成功!
现在又有另一个客户端,客户端B需要加锁,那么也是在"/Lock"路径下创建临时顺序节点。依然获取"/Lock"下的节点列表,判断自己的节点序号是否最小的。发现不是最小的,加锁失败,接着对自己的上一个节点进行监听。
怎么释放锁呢,其实就是把临时节点删除。假设客户端A释放锁,把节点01删除了。那就会触发节点02的监听事件,客户端就再次获取节点列表,然后判断自己是否是最小的序号,如果是最小序号则加锁。
如果多个客户端其实也是一样,一上来就会创建一个临时节点,然后开始判断自己是否是最小的序号,如果不是就监听上一个节点,形成一种排队的机制。也就形成了锁的效果,保证了多台服务器只有一台执行。
假设其中有一个客户端宕机了,根据临时节点的特点,ZooKeeper会自动删除对应的临时节点,相当于自动释放了锁。
首先加入Maven依赖
<dependency>
<groupId>org.apache.zookeeper</groupId>
<artifactId>zookeeper</artifactId>
<version>3.4.6</version>
</dependency>
<dependency>
<groupId>com.101tec</groupId>
<artifactId>zkclient</artifactId>
<version>0.4</version>
</dependency>
接着按照上面分析的思路敲代码,创建ZkLock类:
public class ZkLock implements Lock {
//计数器,用于加锁失败时,阻塞
private static CountDownLatch cdl = new CountDownLatch(1);
//ZooKeeper服务器的IP端口
private static final String IP_PORT = "127.0.0.1:2181";
//锁的根路径
private static final String ROOT_NODE = "/Lock";
//上一个节点的路径
private volatile String beforePath;
//当前上锁的节点路径
private volatile String currPath;
//创建ZooKeeper客户端
private ZkClient zkClient = new ZkClient(IP_PORT);
public ZkLock() {
//判断是否存在根节点
if (!zkClient.exists(ROOT_NODE)) {
//不存在则创建
zkClient.createPersistent(ROOT_NODE);
}
}
//加锁
public void lock() {
if (tryLock()) {
System.out.println("加锁成功!!");
} else {
// 尝试加锁失败,进入等待 监听
waitForLock();
// 再次尝试加锁
lock();
}
}
//尝试加锁
public synchronized boolean tryLock() {
// 第一次就进来创建自己的临时节点
if (StringUtils.isBlank(currPath)) {
currPath = zkClient.createEphemeralSequential(ROOT_NODE + "/", "lock");
}
// 对节点排序
List<String> children = zkClient.getChildren(ROOT_NODE);
Collections.sort(children);
// 当前的是最小节点就返回加锁成功
if (currPath.equals(ROOT_NODE + "/" + children.get(0))) {
return true;
} else {
// 不是最小节点 就找到自己的前一个 依次类推 释放也是一样
int beforePathIndex = Collections.binarySearch(children, currPath.substring(ROOT_NODE.length() + 1)) - 1;
beforePath = ROOT_NODE + "/" + children.get(beforePathIndex);
//返回加锁失败
return false;
}
}
//解锁
public void unlock() {
//删除节点并关闭客户端
zkClient.delete(currPath);
zkClient.close();
}
//等待上锁,加锁失败进入阻塞,监听上一个节点
private void waitForLock() {
IZkDataListener listener = new IZkDataListener() {
//监听节点更新事件
public void handleDataChange(String s, Object o) throws Exception {
}
//监听节点被删除事件
public void handleDataDeleted(String s) throws Exception {
//解除阻塞
cdl.countDown();
}
};
// 监听上一个节点
this.zkClient.subscribeDataChanges(beforePath, listener);
//判断上一个节点是否存在
if (zkClient.exists(beforePath)) {
//上一个节点存在
try {
System.out.println("加锁失败 等待");
//加锁失败,阻塞等待
cdl.await();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
// 释放监听
zkClient.unsubscribeDataChanges(beforePath, listener);
}
public boolean tryLock(long time, TimeUnit unit) throws InterruptedException {
return false;
}
public void lockInterruptibly() throws InterruptedException {
}
public Condition newCondition() {
return null;
}
}
在Controller层加上锁:
@PostMapping("/purchase")
public boolean purchaseCommodityInfo(@RequestParam(name = "commodityId") String commodityId, @RequestParam(name = "number") Integer number) throws Exception {
boolean bool;
//获取ZooKeeper分布式锁
ZkLock zkLock = new ZkLock();
try {
//上锁
zkLock.lock();
//调用秒杀抢购的service方法
bool = commodityInfoService.purchaseCommodityInfo(commodityId, number);
} catch (Exception e) {
e.printStackTrace();
bool = false;
} finally {
//解锁
zkLock.unlock();
}
return bool;
}
测试,依然起两台服务器,8080、8081。然后跑测试脚本:
public static void main(String[] args) throws Exception {
//请求地址
String url = "http://localhost:%s/mall/commodity/purchase";
//请求参数,商品ID,数量
Map<String, String> map = new HashMap<>();
map.put("commodityId", "4f863bb5266b9508e0c1f28c61ea8de1");
map.put("number", "1");
//创建10个线程通过HttpClient进行发送请求,测试
for (int i = 0; i < 10; i++) {
//8080、8081交替请求
String port = "808" + (i % 2);
CommodityThread commodityThread = new CommodityThread(String.format(url, port), map);
commodityThread.start();
}
}
结果正确:
Curator是Apache开源的一个操作ZooKeeper的框架。其中就有实现ZooKeeper分布式锁的功能。
当然分布式锁的实现只是这个框架的其中一个很小的部分,除此之外还有很多用途,大家可以到官网去学习。
首先添加Maven依赖:
<dependency>
<groupId>org.apache.curator</groupId>
<artifactId>curator-framework</artifactId>
<version>4.3.0</version>
</dependency>
<dependency>
<groupId>org.apache.curator</groupId>
<artifactId>curator-recipes</artifactId>
<version>4.3.0</version>
</dependency>
还是一样在需要加锁的地方进行加锁:
@PostMapping("/purchase")
public boolean purchaseCommodityInfo(@RequestParam(name = "commodityId") String commodityId,
@RequestParam(name = "number") Integer number) throws Exception {
boolean bool = false;
//设置重试策略
RetryPolicy retryPolicy = new ExponentialBackoffRetry(1000, 3);
CuratorFramework client = CuratorFrameworkFactory.newClient("127.0.0.1:2181", retryPolicy);
// 启动客户端
client.start();
InterProcessMutex mutex = new InterProcessMutex(client, "/locks");
try {
//加锁
if (mutex.acquire(3, TimeUnit.SECONDS)) {
//调用抢购秒杀service方法
bool = commodityInfoService.purchaseCommodityInfo(commodityId, number);
}
} catch (Exception e) {
e.printStackTrace();
} finally {
//解锁
mutex.release();
client.close();
}
return bool;
}
我尝试用原生的ZooKeeper写分布式锁,有点炸裂。遇到不少坑,最终放弃了,用zkclient的API。可能我太菜了不太会用。
下面我分享我遇到的一些问题,希望你们在遇到同类型的异常时能迅速定位问题。
这个错误是使用原生ZooKeeper的API出现的错误。主要是我在进入debug模式进行调试出现的。
因为原生的ZooKeeper需要设定一个会话超时时间,一般debug模式我们都会卡在一个地方去调试,肯定就超出了设置的会话时间~
这个也是原生ZooKeeper的API的错误,怎么出现的呢?
主要是创建的ZooKeeper客户端连接服务器时是异步的,由于连接需要时间,还没连接成功,代码已经开始执行create()或者exists(),然后就报这个错误。
解决方法:使用CountDownLatch计数器阻塞,连接成功后再停止阻塞,然后执行create()或者exists()等操作。
这个错误真的太炸裂了~
一开始我是把分布式锁加在service层,然后以为搞定了。接着启动8080、8081进行并发测试。10个线程都是购买成功,结果居然是不正确!
第一反应觉得自己实现的代码有问题,于是换成curator框架实现的分布式锁,开源框架应该没问题了吧。没想到还是不行~
既然不是锁本身的问题,是不是事务问题。上一个事务更新库存的操作还没提交,然后下一个请求就进来查询。于是我就把加锁的范围放大一点,放在Controller层。居然成功了!
你可能已经注意到,我在上面的例子就是把分布式锁加在Controller层,其实我不太喜欢在Controller层写太多代码。
也许有更加优雅的方式,可惜本人能力不足,如果你有更好的实现方式,可以分享一下~
最后,我们回顾总结一下吧: