最近AI领域有很多新技术呀!让我来给大家简单介绍一下。
首先,GAN(Generative Adversarial Network)模型的应用正在变得越来越广泛。它是一种基于对抗训练的生成模型,可以用来生成各种形式的图像和视频。有很多厉害的研究者在探索如何更好地使用GAN来生成更加逼真的图像和视频,这将会是最近AI领域的一个热门话题。
其次,自然语言处理技术也在持续发展。最近有很多公司和研究机构在研究如何让机器理解自然语言,用机器来自动回答问题。这项技术有很大的潜力,可以提高人们的生产效率,并带来更好的用户体验。
另外,强化学习也是一个非常热门的话题。它是一种基于机器学习的算法,被广泛应用于智能游戏、机器人控制和自动驾驶等领域。强化学习的核心思想是让机器自己通过与环境的交互来学习最优的决策策略,这将会是未来AI智能化的一个重要方向。
总结起来,最近AI领域的新技术层出不穷,其中GAN模型、自然语言处理和强化学习,都是非常重要的研究领域。我相信这些技术的不断发展,将会为我们未来的生活带来更多的惊喜。
本文核心假设:用混沌理论,可以解释AI的不可解释性。
有广义的解释和狭义的解释两种。
广义地,指提升AI算法、产品和服务做出决策时的透明度和公平性,以防算法偏见和打开算法黑箱,助力用户的信任和监管的合规性。这种理解方式多见于 社会 、法律和政府层面的各类文件,比如联合国UNESCO的《人工智能伦理建议书》等。
狭义地,指一个端到端的AI深度学习算法,改变其算法模型中的任意一个权重、结点或层数,可能都会对整个模型的表现产生难以预测的影响。即使是模型的设计者和训练者,也无法预先知道。因此,深度学习也被戏称为“调参学”、“玄学”,被说科学就连工程学都算不上,因此AI算法工程师也被戏称为“炼丹师”。
如果说广义“可解释性”,面向的是大众和监管机构的,已经超出了AI本身,针对的是算法黑箱。那么,狭义的可解释性,则面向的是学界和产业界,仅针对深度学习的“算法幽灵”。
牛顿力学将人类带到了一个确定性的世界,但量子力学又将人类又带到了不确定的概率世界。对应地,计算机和传统算法将数字世界带到了一个确定性的时代,而大数据和深度学习算法又将数字世界带到了“不可解释”的“概率”新阶段。
这让我想起了近30年来才兴起的混沌理论。量子力学质疑微观世界的物理因果律,混沌理论否定了包括宏观世界拉普拉斯(Laplace)式的决定型因果律。
这个理论可以用来解释AI的不可解释性。
机器只能处理“关联关系”而无法理解因果关系,更无法判断学习结果正确与否,工程师调参基本靠直觉,是否已经学习到中“真经”也是靠人的判断,因此学习结果正确只是概率问题,“碰巧”正确而已,因此稍微换下参数环境就又不可预期了。
混沌理论认为, 许多自然现象即使可以化为单纯的数学公式,但是其行径却无法加以预测。
用于解释AI的不可解释性,机器学习被化简为单纯的算法模型,但深度学习的行径却无法加以预测。
深度学习初始条件或权重十分微小的变化和调整,经过多层网络、多结点的不断反馈和放大,对其未来状态会造成极其巨大的差别。
混沌的发现,提醒我们对因果关系需要再认识。过去认为,简单的原因必定产生简单的结果,复杂的结果必然有复杂的原因。
但混沌理论告诉AI,在一个复杂的反馈系统中,简单的参数调整也可以产生复杂的结果,仅仅知道确定性的算法模型,不等于能够预测AI的行为。
以上就是关于最近AI有什么新技术全部的内容,包括:最近AI有什么新技术、何宝宏:对“AI可解释性”的解释、等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)