1
AI,真的觉醒了?
人工智能,会苏醒吗?
这是一个古老而又新奇的话题。
“ 深度学习 ”天生的 不可预测 ,加深了这种忧虑。
“ 神经网络 ”的 生物性类比 ,让“AI黑匣子”更让人担心。
最近,一个谷歌工程师再次引爆该话题:AI觉醒了?
2022年6月 ,谷歌工程师 Lemoine 表示,自己在与AI“ LaMDA ”聊天中,发现了后者的回答已经 高度人格化 ,认为该AI已经“ 觉醒 ”。
为此,Lemoine写了一篇长达 21页的调查报告 ,试图让高层认可AI的人格。
不过帆逗,谷歌高层暂未表态,希望获得更清晰的认定。
但Lemoine仿佛化身科幻电影主角,他没有放弃,将自己和AI的 聊天记录 公布于众,引发轩然大波。《 华盛顿邮报 》跟进报道后,更是在全球炸圈。
AI真的觉醒了吗? 争议不断。
不管真相如何,有一点可以肯定:
因为 深度学习 和 神经网络 的加持,人工智能已经越来越“ 不可捉摸 ”。
2
那一夜,人类安然睡去
关于AI觉醒,让人想起了6年前的另一件事。
2016年3月13日 ,人类和AI在围棋上进行一场 智力的终极较量 。
在此之前,AI与人类较量屡屡得手。
但人类认为, 围棋是AI不可突破的天花板 。
因为可测宇宙原子总数约为 10^80 ,而围棋走法有 2.08*10^170 ,AlphaGo不可能依靠 计算量 和 算力枚举 来获胜,那么,拥有创造力的人类,怎么可能败给AI。如果围棋上败给了AI,那么说明它已经完成了“ 图灵测试 ”。
然而,前三局,李世石 一败再败 ,全世界震惊了。
第四局,李世石判断黑空中有棋,下出白 78挖 。李世石这史诗级的“ 神之一手 ”,体现了人类巅峰的 直觉、算力和创造力 。这也是人类 最后的尊严之战。
当年一个作者写下上段内容(有修改),并提到“ 23年后,无人幸免 ”,科学家建立了一个数学模型,判断 2040年 人工智能可能会达到普通人的智能水平,并引发 智力爆炸 。
面对越来越普遍的AI, 机器即将代替人类,AI正在迅速扩张 。
五年过去了,人类朝着“黑客帝国”大步迈进。
那么 18年 后,真的 无人幸免 ?
3
AI的另一面:不够稳定
以上两件事,本质上都是对 AI觉醒 的担忧。
一个拥有 自由意志 的AI不可信,最终会威胁到人类。
霍金 警告人类要正视人工智能带来的威胁。
比尔·盖茨 认为人工智能是“召唤恶魔”。
《 2001太空漫游 》中,超级电脑 HAL9000 在宇宙中将人类无情抹杀。
《 黑客帝国 》中,人类被AI禁锢在 矩阵镇卖 之中。
不过,实事求是地讲,对AI觉醒的不可信,仍然只是人类臆测态旅卖。
虽然科幻电影里描写得残酷冰冷,也还没有得到普遍证实。
但AI的另一个“不可信”,却是真实存在的。
它不是太聪明太智慧或者产生意识,而是不够稳定 。
这种不稳定,产生的后果才真的“瘆人”。
关于人工智能“ 失灵 ”的例子还有很多很多,这是AI 不够沉稳 的一面。
这才是实实在在“ 不可信 ”的地方,也是AI对人类真正的威胁。
我们不愿意看到 AI 的 “觉醒”, 但更不能接受 人工智能 的 “轻率” 。
4
人类需要的是一个可信的AI
所以,人类需要一个“ 可信AI ”。
AI是聪明还是愚蠢,也许并不重要。
AI是进化还是退化,可能暂时只是一个伪命题。
人类需要的是一个可靠的助手,一个值得信任的机器助理 。
我是你的创造者,你得听我的吧,不能瞎捣乱。
阿西莫夫在七十年前就提出了“ 机器人学三大定律 ”:
这是人类在 AI伦理 思考中的方向。
可以把它称为是 人工智能 社会 的道德准则 。
对于人类来说,可信,才是我们对AI最重要的需求。
如果从“ 贝叶斯-拉普拉斯 ”定理开始溯源人工智慧,目标是解决“ 逆向概率 ”问题,其实本质就是解决AI的 可信赖度 。
如果不能做到可信,AI就有可能反噬人类。
最起码AI与我们相伴要保证人类两点: 生命安全 与 财产安全 。
以 自动驾驶 为例,如果人工智能以准确率为 99.99% 概率推算, 0.01% 的失误率依旧会让人心惊胆战。如果未来城市有 一百万辆 自动驾驶 汽车 ,即便是 0.01% 的失误率,对人类生命安全造成威胁的隐患车辆仍有 一百辆 。
如果我们不能拥有可信AI,我们自然无法确定,人工智能给我们带来的到底是技术的进步,还是无数潜在的威胁。
但实际上 它才是人工智能领域最有价值的航灯,也是现在 科技 公司追求的方向 。
5
什么是可信AI,
这16个技术小哥在做什么?
所以,什么是可信AI?
可能很多人还不知道,先得把这个定义弄清楚。
我们可以先看一档节目《 燃烧吧,天才程序员2·可信AI 》。
这款综艺节目第一季在 豆瓣评分8.0 ,让人脑洞大开。
在第二季中,1 6个AI技术小伙 分为四个团队待在“小黑屋”中 四天三夜 ,完成 60个小时 任务挑战。
比赛中,他们需要与“ 黑产 ”进行无数次较量,培养出与帮助人类的“可信AI”,打败“黑产”,最终决出 最强团队 。
关于程序技术的综艺节目,在中国乃至世界都非常稀缺 。
一方面程序与代码本身过于硬核,普通人难以理解。
另一方面则是节目脚本设置冲突相比其他综艺要更难一些。
但《燃烧吧,天才程序员2·可信AI》通过“ 反诈骗 ”这一实际场景需要,以此构建起节目的比赛逻辑。
16个AI技术小伙需要直面欺诈交易识别、联合反诈等关卡的挑战 。
通过AI与攻防互相协作,覆盖反诈全链路。
比赛之中,程序员们通过创造“可信AI”,完成“ 科技 反诈”。
哪一个团队产出的 算法和模型 在数据的 识别准确率 和 覆盖率 更好,就能赢得比赛胜利。
虽然不如《 黑客帝国 》那般深刻宏大,也不如《 人工智能 》那样发人深省。
但《燃烧吧,天才程序员》却通过 真实的应用场景 ,解决现实生活存在的实际问题。
当你看完整个节目时就会明白,原来这就是可信AI:依照 现有数据 构建 智能模型 ,非常稳定地解决 现实难题 。
可信AI的 技术应用范围 非常广泛, 反诈 是其中一个重要应用场景。
可信AI没有那么遥远,它近在咫尺。它也没有那么神秘,很多时候它就是你身边的小助理。
当前基于 神经网络 的AI技术非常酷,同时占据AI话题至高点,以创造力和神秘性提供太多想象空间,也是许多AI技术员仰视的圣殿。但它面临的问题也非常多: 具有不可解释、鲁棒性差、过于依赖数据等缺陷,隐藏着许多潜在危害 。
而可信AI的存在,就是为了解决这些“ 信任危机 ”问题。
如果说基于 神经网络 的AI技术有着 强烈的理想主义 ,那么基于 大数据整理 的AI技术则是一个 脚踏实地的现实执行者。
6
可信AI的技术特点
要真正了解可信AI对人类的帮助,需要从技术底层入手。
可信AI有四大技术特点:鲁棒性、隐私保护、可解释性、公平性 。
01
鲁棒性
鲁棒性指 在异常和危险情况下系统生存的能力和算法稳定 。
1、前者指的是 系统抗打击的能力 ,如计算机软件在 输入错误 、磁盘故障、 网络过载 或恶意攻击情况下,能否 不死机 、 不崩溃 。打个比方,如果把一个 AI模型 比喻成 万里长城 ,那么其鲁棒性便是长城在面对恶劣天气(如台风)、自然灾害(如地震)时,人工轰炸时仍然可以做到 不轻易倒塌 。
2、后者指的是 AI模型中算法本身的稳定性 ,如果添加扰动的熊猫照片,轻易就绕开了AI模型的“眼睛”,则说明其鲁棒性比较差;比如在 欺诈交易 中,由于 作案手法 不断升级,可能导致基于既往数据训练的模型,面临着新风险数据带来的 稳定性考验 ,需要 不断迭代 来保障模型的 分析和识别能力 。
以 支付宝 为例。支付宝每天都有 上亿笔交易 ,其 对抗的不是散户,而是专业的黑产团伙 。他们可能有两种攻击方式:
为了保障资金安全,蚂蚁集团引入“ 博弈智能攻防 ”技术,该技术具有对 风险知识 和 模型 的 提前模拟、提前训练、提前补防 的能力。应用该技术的AI模型鲁棒性有大幅提升,实现“ 左右互搏 ”,既能够更智能地“攻”,也能更安全地“防”。
02
隐私保护
传统的数据保护方法客观上形成了「 数据孤岛 」,影响了如医疗、金融等领域的协同作战,也制约 AI 技术以及行业发展。
所以, 拓展数据价值的隐私计算技术,对实现「数据不动价值动」显得尤为重要 。
在AI领域, 联邦学习 作为一种新的机器学习模型和算法,就是为解决数据孤岛问题而提出的。在保证每个参与方不泄露原始数据,即 数据不出域 的前提下,用多方的数据联合建模,实现数据 可用不可见 ,进而实现「数据不动价值动」。
03
可解释性
人类对一切未知的东西,始终都会有一种莫名的恐惧。
如果人工智能的行为无法进行解释,只有结果没有过程,那么它就像是一个盲盒,你永远不知道放出来的是“阿拉丁”,还是“潘多拉”。
AI 模型是许多重要决策的重要依据,在很多应用里它的思考过程不能是黑盒 。
人类希望知道模型 背后的逻辑 、收获新的知识,并在它出现问题时踩好刹车,确保 AI 思考的过程和结果 合规合法 。
这背后需要 数据驱动 与 模型推理能力 结合起来,产生 可解释的结果 。
04
公平性
AI公平性是可信AI的重要组成部分。
只有实现“ 公平性 ”,才能真正推动技术 造福 于整个 社会 。
一方面,公平性需要重视 弱势人群 、兼顾 落后地区发展 ,在重视 社会 伦理原则下进行 AI 调优 ,通过 AI 技术,让老年人、残障人士、欠发达地区用户,享受到 数字经济时代 的价值。
另一方面,公平性要思考如何从技术上思考如何减少算法、数据等因素可能带来的 AI 决策偏见 。
鲁棒性、隐私保护、可解释性、公平性 。
这是可信AI的 四大基本原则 。
今天,发展可信AI,已经成为 全球共识 。
特别是对于领先的 科技 公司来讲,他们是要服务用户且不能犯错误的。
微软 、谷歌、 蚂蚁 、京东、 腾讯 、旷世等 科技 企业,都在积极开展可信AI的研究和 探索 。
其中,蚂蚁在可信AI上已有很多 技术优势 ,自 2015年 开始投入研究起,已经完成了 长达7年 的 可信AI技术积累之路 。
据 2021年 权威专利机构 IPR daily 发布的《 人工智能安全可信关键技术专利报告 》显示,蚂蚁集团旗下的 支付宝 在该领域的 专利申请数 和 授权数 ,均位列全 球第一 。
7
可信AI的应用 探索
基于可信AI的以上特点,应用场景多种多样。
AI在 医疗 、教育、 工业 、金融等多个领域的广泛应用,算法安全性、数据滥用、数据歧视等问题也层出不穷。当前AI技术的 主要矛盾, 已经转化为 人们对AI日益增长的应用范围需求和AI不可信不够稳的发展之间的矛盾 。
2018年,IBM开发了多个AI可信工具,以评估测试人工智能产品在研发过程中的公平性、鲁棒性、可解释性、可问责性、价值一致性。之后IBM将这些工具捐献给Linux Foundation并成为了开源项目,帮助开发人员和数据科学家构建可信、安全、可解释的人工智能系统。
作为可信AI领域的先行者之一,蚂蚁也做了不少 探索 。
蚂蚁的可信AI技术应用最好的实践结果是,自研了一套 智能风控解决方案 ,定名 IMAGE 。这套技术体系实现了用可信AI技术保障风控业务安全的问题,且达到了非常好的效果。
它能将支付宝 资损率 控制在 千万分之0.098, 解决了 风控场景 中的诸多 世界难题 。
还有一个例子,是支付宝的“ 叫醒热线 ”——从系统识别到用户遇到诈骗风险,到AI机器人向用户呼出“ 叫醒电话 ”,它能把整个过程控制在 0.1秒 内 。
蚂蚁集团基于可信AI的IMAGE风控体系
另外在可信AI的公平性方面,蚂蚁也有自己的实际应用。
目前业内广泛使用的“ 图形滑块验证码 ”一直是视障人群接入数字化服务的巨大障碍。但许多 APP 为了防范机器批量 *** 作,又不得不保留验证码服务。
为此,蚂蚁开发了一套“ 空中手势 ”验证码方案,可以利用“ 行为识别 ”技术帮助视障群体通过“ 验证码 ”关卡。
可信AI的应用 探索 ,并不会让AI技术失去它的可能性。
它更像是一种伦理规范的约束条约,让AI在正确的轨道上前行 。
8
18年后,人类真的无人幸免?
让我们回到一开始的问题。
AI真的会觉醒吗?
一百年前的人类,很难想象我们如今生活的这个高度数字化世界 。
那么,一百年后,人工智能会发生什么变革,我们真的无法预测。
但AI对人类是福是祸,是一个攸关人类命运的重要课题。
按照现在AI发展的模式来看,未来的AI可能会分为两大派:
一派是自我独立的智能AI,一派是追随人类的可信AI 。
当然,还有人在问,AI真的会存在 独立意志 吗?
这要看从科学上如何去解释,一个AI系统是可以“坎陷”到具有“ 自我意识 ”的状态,差别只在于“坎陷”的深度和鲁棒性,这可以解释AlphaZero为什么能够自我“坎陷”到围棋大师,如果再 “ 坎陷 ”下去呢? 这 一派AI,可能会对人类造成我们认定的“威胁” 。
另一派AI,即可信AI,它们会在 四大基本原则 的架构中不断完善自我 ,帮助人类解决更多实际问题,成为人类可靠的助手,并与人类共存共生 。那么,它们会一直帮助和保护人类吗?
但无论未来如何发展,不同的技术方向或许带来不同的悲剧或者喜剧,但有一点可以确定:
AI技术在四面突击,不论是可信AI还是智能AI,最终会落地深入到我们生活的方方面面 。它会渗透到世界的每一个角落,在很多方面取代“无用之人”。
不管我们如何担忧,AI只会变得越来越强大,而人类的进化又显得如此龟速,甚至退化堕落。
那么, 18年后,有多少人可以幸免?
有人认为人工智能(AI)技术,如ChatGPT,可能会影响底层程序员的就业前景,因为它们可以自动完成许多重复的、繁琐的工作。然而,其实事实并非如此。事实上,AI 的发展可能会创造新的就业机会,并对社会和经济产生积极的影响旁闭。首先,AI 可以为程序员提供一些新的工作领域,如开发和部署 AI 模型、编写 AI 算法和模型、管理 AI 平台等。因此,程序员可以获得新的就业机会。
其次,AI 技术可以让程序员将更多精力投入到更具挑战性和创造性的工作中,而不是花费大量时间宽启余完成重复的任务。
最后,AI 可以提高工作效率,使工作变得更容易和更高效,因此程序员仍慎滚然是需求的。
总的来说,AI 可以为程序员提供新的工作领域,提高工作效率和降低重复性任务的压力,而不是使程序员失业
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)