西部世界本质上是一个超级富豪的主题公园,他们在一个充满“人”的狂野世界中生活出他们最深的幻想,他们可以对那些“人”做任何他们想做的。 “人”实际上是人类复制品,在实验室中制作,具有复杂的人工智能大脑和角色设定。这些复制品非常人性化,很难或不可能从AI中分辨出谁是真实的。我们唯一的线索是合成人必须服从他们的代码,即永远不会伤害客人。
回到现实,距离复制人类的AI产生还有多远?
自然语言处理
数学和科学以简单而相对微小的方程式描述世界上最复杂的事物,这是一种非常美妙的方式。我们对科学的理解还很浅薄,甚至很容易忘记智能手机的革命之前的技术。
目前我们的自然语言处理器大多是通过马尔可夫链来实现的。
让我们先来弄清楚两个概念,马尔可夫过程和马尔可夫链。马尔可夫过程是指很多事情的发生,和之前的铺垫或经历没有任何关系。比如投硬币,第一次投硬币,无论是正面还是反面,对于第二次投硬币的结果没有任何影响。但是第一次和第二次投硬币,有个时间顺序;只是这个时间顺序,并没有对这两件事情各自有什么影响。这就是马尔可夫过程——“在已经知道过程‘现在’的条件下,其‘将来’不依赖‘过去’”。
马尔可夫链是一些令人难以置信的方程,离散的马尔可夫过程都可以称为马尔可夫链。它模拟了一系列可能性并且预测了最有可能发生什么。他们总之前的经验中学习,以前的事件会影响最有可能的决定。
有趣的是,你可以将句子输入马尔可夫链,它将能够使用这些句子作为训练数据来构建新的句子。然而新的句子大多都是一些无稽之谈。它可以做一些半令人信服的填充文本,但是却并没有实质有用的内容。
而真正的语言处理器是什么样的?下图为西部世界中自然语言处理器的外观。
这是一种“深度学习AI”的卷积神经网络,目前应用于谷歌的“深度思考”实验室。
AI可以欺骗你图灵测试是阿兰图灵于1950年提出的一个关于判断机器是否能够思考的著名试验,测试某机器是否能表现出与人等价或无法区分的智能。虽然这个测试最初是为了确定计算机是否能够思考而设计的,但我们发现他们并不需要这样做来欺骗我们。
目前已经有谷歌的人工智能已经通过图灵测试,这是迄今为止AI的最大成就之一。
在谷歌助手实验中,John Legend(9次夺得格莱美奖的R&B唱作人和钢琴家)培训谷歌助手使用自己的声音,现在如果你像Google询问一个问题,回答你的声音听起来就像John Legend,甚至伴有独属于他声音特色的小怪癖。
你或许曾经在GPS系统中听到过名人的声音,但这是不同的。谷歌助手是动态生成的语音,他甚至可以说John从没有说过的话。
被“PS”的演讲
Adobe正在开发一种可以分析语音的工具,类似于Google分析John Legend的语音,然后使用训练有素的语音模型从文本中生成全新的。
这意味着你可以做任何人,复制他们声音的所有特征,用别人的声音说你想说的话。达到这项技术,只需要声音数据来训练模型,提供的数据越多,声音也就越准确。Adobe目前只需要一个人20分钟左右的演讲就可以完全复制他的声音。
然后再输入你想说的文字,就可以生成一个全新的语音。如果和我们之前谈到的自然语言处理器生成的文本相联系,一个真正的AI“骗术”就诞生了。目前缺少的只是视觉组件。
AI换脸技术“Deepfakes ”在一段时间内引起了互联网的轰动。通过一些镜头(只是一串图片)和大量的人物脸部图像,普通计算机可以利用深度学习算法来给人换脸。
左边是演员亚历克·鲍德温(Alec Baldwin)饰演总统唐纳德·特朗普(Donald Trump)。在右边,是通过家庭计算机上的AI系统提供的镜头,其中包含数百或数千张唐纳德特朗普的参考照片。
结果显然易见,这是一个几乎没有什么破绽的视频,他让美国总统做了一些他从未做过的事。这与我们正在讨论的人工智能没有关系,但是它让你可以看到可能存在的未来。
你的个性是代码
就像莫扎特,贝多芬和肖邦从未死过,他们只是成了音乐。我们也是这样,每个人都有他自己的性格、习惯,是一个独立的人。而要做到AI复制人类,就要完美地复制他的大脑,复制他每一条“个性代码”,这是一件相当困难的事,因为每一个人都是一个庞大的数据库。
另外我们还需要更好的算法。随着云计算和人工智能的发展,各个组件和任务的复杂性越来越高,数据存储介质逐渐样变小,并且在云中分布更多。通过云提供的量子计算可以在复杂的AI系统中实现更快的计算。
凭借所有这些数据和计算能力,或许完成个性代码的那一天也不会太遥远。
那么,现在你认为AI可以完全复制人类吗?
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)