建立负责和可信任的AI

建立负责和可信任的AI,第1张

随着AI的使用变得越来越普遍,仅“尽力而为”的数据科学家和组织就还不够。随着AI倡导者的兴起,负责任的AI将成为人们的期望和标准。

近年来,数据和人工智能已在众多行业中广泛使用,以告知和塑造从医疗保健,零售到银行和保险的战略和服务。最近,在追踪冠状病毒的斗争中,AI脱颖而出。

但是,随着数字化生成数据量的增加,以及由AI支持的自动决策的需求,对于企业和政府而言,都对AI决策算法背后的推理提出了新的挑战。

随着AI将决策远离那些影响决策的人,决策似乎变得更加残酷,甚至可能变得粗心。对于组织而言,引用数据和算法作为不受欢迎的决策的理由并不少见,当受人尊敬的领导者犯错时,这可能会引起关注。

除了可能做出错误的决策外,还存在AI偏见的问题。结果,引入了新法规来保护消费者权益并密切关注AI的发展。

负责任的AI的支柱

组织现在需要实施强大的AI。为此,他们必须以负责任的AI的三大支柱来加强和制定标准:可解释性,问责制和道德规范。有了这些措施,各种类型的组织都可以确信他们正在制定合理的数字决策。

可解释性:依赖于AI决策系统的企业应确保其具有适当的算法构造,该构造可捕获决策变量之间的关系以得出业务决策。通过访问此数据,企业可以解释该模型做出决定的原因-例如,将交易标记为欺诈的高风险。然后,人类分析人员可以使用此解释来进一步调查该模型的含义和准确性。决定。

问责制:必须正确构建机器学习模型,并重点关注机器学习的局限性和对所使用算法的仔细考虑。技术必须透明且合规。模型开发过程中的周到性可确保决策合理,例如分数随着风险的增加而适当地适应。

除可解释的AI之外,还有谦虚AI的概念-确保仅将模型用于与训练模型相似的数据示例。如果不是这种情况,则该模型可能不可信,因此应降级为另一种算法。

伦理:必须以可解释性和责任制为基础,对伦理模型进行测试,并消除任何歧视。可解释的机器学习架构允许提取通常隐藏大多数机器学习模型内部工作的非线性关系。这些非线性关系需要进行测试,因为它们是基于训练模型的数据学习的,并且这些数据通常隐含地充满了社会偏见。道德模型可确保明确测试和消除偏见和歧视。

强制执行负责任的AI的部队

建立负责任的AI模型需要花费时间和艰巨的工作,而细致的持续审查对于实施持续负责的AI至关重要。审查必须包括监管,审计和倡导。

法规对于设定使用算法的行为标准和法治非常重要。但是,最终是否满足法规要求,要证明与法规的一致性需要进行审核。

证明符合法规要求需要一个框架来创建可审核的模型和建模过程。这些审核材料包括模型开发过程,使用的算法,偏差检测测试以及使用合理决策和评分的演示。如今,模型开发过程的审计是随意进行的。

引入了新的基于区块链的模型开发审核系统,以实施和记录不可变的模型开发标准,测试方法和结果。此外,它们被用于记录整个模型开发周期中数据科学家和管理层批准的详细贡献。

展望未来,仅凭数据和AI来“尽力而为”是不够的。随着AI倡导者的兴起以及由于AI系统的错误结果而造成的实际苦难,负责任的AI很快将成为整个乃至全球的期望和标准。

组织必须立即执行负责任的AI,并加强和设定AI的可解释性,责任制和道德标准,以确保他们在做出数字决策时表现负责。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2558224.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-06
下一篇 2022-08-06

发表评论

登录后才能评论

评论列表(0条)

保存