【seata】为什么需要分布式事务?(2PC、TCC)

【seata】为什么需要分布式事务?(2PC、TCC),第1张

【seata】为什么需要分布式事务?(2PC、TCC)

文章目录
  • 1. Seata简介
    • 1.1 分布式事务产生背景
      • 1.1.1 数据库的水平分割
      • 1.1.2 微服务化
  • 2. 分布式事务理论基础
    • 2.1 两阶段提交(2pc)
    • 2.2 TCC
      • 2.2.1 基本原理
      • 2.2.2 幂等控制
      • 2.2.3 空回滚
      • 2.2.4 防悬挂
  • 参考

1. Seata简介

Seata(Simple Extensible Autonomous Transaction Architecture) 是 阿里巴巴开源的分布式事务中间件,以高效并且对业务 0 侵入的方式,解决微服务场景下面临的分布式事务问题。

附上项目github链接 https://github.com/seata

1.1 分布式事务产生背景

讲到事务,又得搬出经典的银行转账问题了,下面以实例说明:

假设银行(bank)中有两个客户(name)张三和李四,我们需要将张三的1000元存款(sal)转到李四的账户上,目标就是张三账户减1000,李四账户加1000,不能出现中间步骤(张三减1000,李四没加)

假设dao层代码如下:

public interface BankMapper {
    
    public void updateSal(String userName,int changeSal);
}

对应xml中sql如下:


        update bank SET sal = sal+#{changeSal}  WHERe name = #{userName}
 

如果两个用户对应的银行存款数据在一个数据源中,即一个数据库中,那么service层代码可以如下编写:

    @Transactional(rollbackFor = Exception.class)
    public void changeSal(String fromUserName,String toUserName,int changeSal) {
        bankMapper.updateSal(fromUserName, -1 * changeSal);
        bankMapper.updateSal(toUserName, changeSal);
    }

通过spring框架下的@Transactional注解来保证单一数据源增删改查的一致性

但是随着业务的不断扩大,用户数在不断变多,几百万几千万用户时数据可以存一个库甚至一个表里,假设有10个亿的用户?

1.1.1 数据库的水平分割

为了解决数据库上的瓶颈,分库是很常见的解决方案,不同用户就可能落在不同的数据库里,原来一个库里的事务 *** 作,现在变成了跨数据库的事务 *** 作。

此时@Transactional注解就失效了,这就是跨数据库分布式事务问题

1.1.2 微服务化

当然,更多的情形是随着业务不断增长,将业务中不同模块服务拆分成微服务后,同时调用多个微服务所产生的

微服务化的银行转账情景往往是这样的:

  • 调用交易系统服务创建交易订单;
  • 调用支付系统记录支付明细;
  • 调用账务系统执行 A 扣钱;
  • 调用账务系统执行 B 加钱;


如图所示,每个系统都对应一个独立的数据源,且可能位于不同机房,同时调用多个系统的服务很难保证同时成功,这就是跨服务分布式事务问题。

2. 分布式事务理论基础 2.1 两阶段提交(2pc) 2.2 TCC 2.2.1 基本原理

TCC 将事务提交分为 Try - Confirm - Cancel 3个 *** 作。其和两阶段提交有点类似,Try为第一阶段,Confirm - Cancel为第二阶段,是一种应用层面侵入业务的两阶段提交。


其核心在于将业务分为两个 *** 作步骤完成。不依赖 RM 对分布式事务的支持,而是通过对业务逻辑的分解来实现分布式事务。

下面还是以银行转账例子来说明

假设用户user表中有两个字段:可用余额(available_money)、冻结余额(frozen_money)
A扣钱对应服务A(ServiceA)
B加钱对应服务B(ServiceB)
转账订单服务(OrderService)
业务转账方法服务(BusinessService)

ServiceA,ServiceB,OrderService都需分别实现try(),confirm(),cancle()方法,方法对应业务逻辑如下:

步骤一 业务调用方BusinessService中就需要调用:
ServiceA.try()
ServiceB.try()
OrderService.try()

步骤二:
1、当所有try()方法均执行成功时,对全局事物进行提交,即由事物管理器调用每个微服务的confirm()方法
2、 当任意一个方法try()失败(预留资源不足,抑或网络异常,代码异常等任何异常),由事物管理器调用每个微服务的cancle()方法对全局事务进行回滚:

引用网上一张TCC原理的参考图片:

2.2.2 幂等控制

使用TCC时要注意Try - Confirm - Cancel 3个 *** 作的幂等控制,网络原因,或者重试 *** 作都有可能导致这几个 *** 作的重复执行

业务实现过程中需重点关注幂等实现,讲到幂等,以上述TCC转账例子中confirm()方法来说明

在confirm()方法中:
余额-1000,冻结余额-1000,这一步是实现幂等性的关键,你会怎么做?

大家在自己系统里 *** 作资金账户时,为了防止并发情况下数据不一致的出现,肯定会避免出现这种代码:

//根据userId查到账户
Account account = accountMapper.selectById(userId);
//取出当前资金
int availableMoney = account.getAvailableMoney();
account.setAvailableMoney(availableMoney-1000);
//更新剩余资金
accountMapper.update(account);

因为这本质上是一个 读-改-写的过程,不是原子的,在并发情况下会出现数据不一致问题

所以最简单的做法是:

update account set available_money = available_money-1000 where user_id=#{userId}

这利用了数据库行锁特性解决了并发情况下的数据不一致问题,但是TCC中,单纯使用这个方法适用么?

答案是不行的,该方法能解决并发单次 *** 作下的扣减余额问题,但是不能解决多次 *** 作带来的多次扣减问题,假设我执行了两次,按这种方案,用户账户就少了2000块

那么具体怎么做?上诉转账例子中,可以引入转账订单状态来做判断,若订单状态为已支付,则直接return:

if( order!=null && order.getStatus().equals("转账成功")){
	return;
}

当然,新建一张去重表,用订单id做唯一建,若插入报错返回也是可以的,不管怎么样,核心就是保证, *** 作幂等性

2.2.3 空回滚

如下图所示,事务协调器在调用TCC服务的一阶段Try *** 作时,可能会出现因为丢包而导致的网络超时,此时事务协调器会触发二阶段回滚,调用TCC服务的Cancel *** 作;

TCC服务在未收到Try请求的情况下收到Cancel请求,这种场景被称为空回滚;TCC服务在实现时应当允许空回滚的执行;

如上图,阶段1消息丢失,阶段二收到cancel消息

那么具体代码里怎么做呢?
分析下,如果try()方法没执行,那么订单一定没创建,所以cancle方法里可以加一个判断,如果上下文中订单编号orderNo不存在或者订单不存在,直接return

if(orderNo==null || order==null){
	return;
}

核心思想就是 回滚请求处理时,如果对应的具体业务数据为空,则返回成功

当然这种问题也可以通过中间件层面来实现,如,在第一阶段try()执行完后,向一张事务表中插入一条数据(包含事务id,分支id),cancle()执行时,判断如果没有事务记录则直接返回,但是现在还不支持

2.2.4 防悬挂

如下图所示,事务协调器在调用TCC服务的一阶段Try *** 作时,可能会出现因网络拥堵而导致的超时,此时事务协调器会触发二阶段回滚,调用TCC服务的Cancel *** 作;在此之后,拥堵在网络上的一阶段Try数据包被TCC服务收到,出现了二阶段Cancel请求比一阶段Try请求先执行的情况;

用户在实现TCC服务时,应当允许空回滚,但是要拒绝执行空回滚之后到来的一阶段Try请求;

这里又怎么做呢?

可以在二阶段执行时插入一条事务控制记录,状态为已回滚,这样当一阶段执行时,先读取该记录,如果记录存在,就认为二阶段回滚 *** 作已经执行,不再执行try方法;

参考

Quick Start
Quick Start Source
Seata实现分布式事务
Seata实现2PC事务控制
Seata实战-分布式事务简介及demo上手 参考主体

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5434839.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-11
下一篇 2022-12-11

发表评论

登录后才能评论

评论列表(0条)

保存