未来人工智能或将代理人的常识进行推理

未来人工智能或将代理人的常识进行推理,第1张

作为人类,当我们解释语言时,我们依靠一堆背景知识来解释和推断不仅关于语言,而且关于我们周围的世界。许多来源已经将常识推理定义为:“感知,理解和判断几乎所有人共享的事物的基本能力,几乎所有人都可以合理地预期,而不需要辩论。”

没有这种能力,人类将无法在现代世界中生存,因为他们会做一些对他们的生存有害的事情。现代人工智能技术缺乏常识。目前正在研究共识推理领域的研究人员正在解决这一差距。

常识推理是一个广泛的领域,应用于计算机视觉和机器人,然而,自然语言处理(NLP)已经看到了大量的活动,最近通过推出DARPA竞赛加强,这是美国军事研究的一个分支。该竞赛的目标是:“创建从经验中学习并模仿发展心理学定义的认知核心领域的计算模型”和“构建能够回答关于常识现象的自然语言和基于图像的查询的常识知识库”通过网络阅读。“人工智能代理的想法被艾伦研究所命名为AI2 。

艾伦研究所由微软的保罗·艾伦创立,正在马赛克项目下进行常识推理。Mosaic项目涵盖了Darpa竞赛的所有目标,包括:Visual Commonsense推理,常识知识图 和具有对抗性生成的情境。视觉常识推理是一种挑战,其中AI技术试图理解诸如“为什么一个人在笑?”这样的场景。挑战问题通常是视觉场景,问题和许多答案。候选技术不仅需要了解场景,还需要了解问题和答案以及它们与场景的关系。

常识知识图是众所周知的社会,出现了许多尝试常识性知识编码成的本体或相关结构。最着名的是Cyc,自1984年以来一直在开发中。它试图捕捉“关于世界如何运作”的陈述,人类用它来推理日常情况。

对抗性世代的情况是艾伦研究所发明的一项新任务,该研究所评估自然语言推理,从中可以推断出技术可以推断出日常情况的逻辑结果。艾伦研究所发起的数据集中的一个典型问题是:“该人使用鼓风机从草地上吹叶子。鼓风机……“然后该技术可以选择四种答案供选择。

DARPA竞赛和艾伦研究所不是这一领域的唯一挑战。许多这些挑战是基于NLP的任务,其中候选技术推断出单词或句子的上下文。该威诺格拉德挑战,例如,是一款主流的挑战就是图灵测试,其中机试图从一个句子解释一个单词的含义的延伸。例如,“市议员拒绝了示威者的许可,因为他们[害怕/主张]暴力。”一个人会本能地知道答案会令人担忧。这个答案需要背景知识来理解候选答案的背景和含义。这个简单的例子很难让机器响应,因为答案依赖于背景信息。

使用常识推理对AI的许多领域都有影响。例如,机器人导航和 *** 作。在这种情况下,具有常识能力的机器人不必明确编程或从先前的经验中学习,以了解不做某些活动以及预测情况。人类对未来的看法能力有限,因为我们的感官太慢,无法将信息传递到我们的大脑,因此我们的大脑必须根据当前信息估计近期。

常识推理将使机器人机器也能做同样的事情。常识推理不仅限于AI的典型科幻刻板印象,而且它可以应用于世俗但同样重要的情况。例如,要拥有透明的AI,策略需要能够解释他们的决策和结论。这被称为可解释的人工智能,可以说是社会接受人工智能的关键一步。普通话推理的应用和需求几乎是无限的。

现有技术处于婴儿阶段,然而,常识推理是人工智能超越其目前有限能力的必要步骤。赋予机器最大限度品质的能力并非易事,而且进展有限。然而,随着DARPA的竞争,这可能会发生变化,正如DARPA的大挑战对自动驾驶汽车的影响所表明的那样,这种汽车从利基活动转变为由众多大型组织支持的主流产品。常识是人工智能的未来,因为追求这个研究领域只是“常识”。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/dianzi/2681035.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-15
下一篇 2022-08-15

发表评论

登录后才能评论

评论列表(0条)

保存