并发造成的数据重复:
首先,我们举一个实例。
A和B要想数据库里插入一条数据,如果当前的数据存在 则不插入;但是在并发的情况下,会出现同时
A 去库里查 数据不存在 插入一条数据
B 去库里查 数据不存在 插入一条数据
如何解决并发下的数据重复:
1.数据库表添加唯一索引;
2.使用synchronized;
3.redis 的分布式锁
因为redis是单线程的,所以不存在并发安全问题;
这时我们可以通过setnx key value;通过相同的key往redis 中 setnx key value返回1 说明执行完 插入造作;这样并发的时候 如果 setnx key value 返回 0,则等待;这样为了防止 死锁,可以设置有效期;
4.zookeeper分布式锁
利用zookeeper节点分为四种
1,持久性节点
2,持久性顺序节点
3,临时性节点
4,临时性顺序节点
并发时 :
当我们我们向数据库插入数据的时候 新建一个持久性节点(客户端创建成功节点后,不管客户端是否否宕掉,服务端都不会删除),这时利用zookeeper的客户端的监听机制(判断节点是否发生删除、修改、子节点增加删除等),当这个节点创建成功后,文件系统的存储特点会防止出现相同的节点;只有等这个节点删除后,才能继续新建节点,当第二次新建的时候继续向数据库插入数据;如果客户端出现掉线,节点没有删除,锁得不到释放,就会出现死锁情况;
防止出现死锁,在持久性节点下面创建临时顺序性节点(因为当客户端宕掉,这时服务端就会删除节点);我们可以根据并发的数量来创建临时性顺序节点,节点001完成后,释放锁,通知节点002进行处理;这样当服务器宕掉,也不会造成死锁;
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)