人工智能发展锁定新目标

人工智能发展锁定新目标,第1张

人工智能技术发展到现在已经很强大,AlphaGo已经把众多围棋世界冠军踩在脚下,让大家心生恐惧,就算在图像识别这件小事上,也比人类更好更快,然而,科学家认为这还远远不够,对于AI的发展来说,理解视频中的动态行为是接下来的关键发展方向。

为什么要理解视频?

据统计,目前视频占互联网流量的90%,它极大地推动了全球数据总量的高速增长,未来十年内,全球数据量将增长50倍,其中视频占最高比例。按照国家发改委的规划,到2020年,视频将全部高清化、连网化,那么视频所需占用的存储空间是巨大的,所以对于挖掘视频内容的需求也是巨大的。

从另一个角度看,随着“中国天网”的落实,中国已经建成了世界上最大的视频监控网,视频摄像头超过2000万个,然而,每个省全部警种的视频分析人员却不足10万个,未来,必须依靠人工智能和大数据进行视频的处理分析。

因此,科学家面临的下一个挑战可能是教会机器不仅理解视频包含了什么内容,还要理解镜头中发生了什么。这可能带来一些实际的好处,比如带来强大的搜索、注释和挖掘视频片段的新方法,也可以让机器人或自动驾驶汽车更好地理解周围的世界如何运转。

用视频训练人工智能

跟图像识别类似,科学家们利用大量的视频数据来训练AI,使其更好地理解真实世界的行为。

去年9月,IBM与MIT宣布组建“IBM-MIT脑启发多媒体机器理解实验室”,双方携手开发具有高级试听能力的人工智能。前不久,MIT和IBM发布了一个庞大的视频剪辑数据集,这个名为“时间数据集时刻”的视频数据集囊括了从钓鱼到霹雳舞在内的许多动作的3秒钟片段。该项目负责人、MIT首席研究科学家奥德·奥利瓦说,世界上许多事情瞬息万变。如果你想明白为什么有些事情会发生,运动会给你提供很多信息。

无独有偶,谷歌去年也发布了一套由800万个做了标记的YouTube视频组成的视频集YouTube-8M;脸谱正在开发名为“场景”“ *** 作”和“对象”集的注释数据集。

普林斯顿大学助理教授奥尔加·鲁萨克维斯基专门从事计算机视觉工作。他表示,此前科学家认为,很难开发出有用的视频数据集,因为它们需要比静止图像更多的存储和计算能力。他说:“我很高兴能使用这些新的数据集,3秒的时长很棒——它提供了时间上下文,同时对存储和计算的要求也比较低。”

还有其他机构在研究更具创造性的方法。位于多伦多和柏林的创业公司“二十亿神经元(Twenty Billion Neurons)”创造了一个定制数据集。该公司联合创始人罗兰梅·尼塞维奇称,他们还使用了专门处理时间视觉信息的神经网络,“用其他数据集训练的AI可以告诉你,视频中显示的是足球比赛还是派对;用我们的定制数据集训练的神经网络可以告诉你,是否有人刚刚进入房间。”

AI真正实现智能需要找对方向

按照IBM的解释,人类能够观看一段简短的视频并轻松地描绘出视频内容,甚至能预测后续事件的发生,而这样的能力对机器来说依然是可望而不可及的。赋予机器真正的智能需要避免被常规概念错误引导,回归人类生物功能的方向。

北京大学信息科学技术学院计算机科学技术系主任黄铁军认为,“现在人们对视频的理解只是为满足媒体产业发展需要所定义的概念。比如‘帧’这个概念,是利用了人眼对频率的识别,使人50毫秒之内保留对视频画面的印象。但是从生物视觉上讲,我们的大脑之所以能够从复杂的环境里分辨人的动作,是因为视网膜接收连续的光子撞击,神经节细胞接收到足够刺激后发放脉冲,脉冲序列传送给大脑,使得大脑产生连续的印象,而非每秒30帧、50帧。所以传统视频输入的方法,不一定适用于人工智能。”

所以,机器如果想要真正实现智能,还需要从仿生物的方向研究,人们应该弄清楚眼睛发放脉冲是如何将信息编码传送给大脑的。

IBM的科学家认为,有效识别行为要求机器学习某个行动,并将获得的知识应用于正在进行同样行动的情境中,这一领域的进步,即转移学习,对于AI的未来非常重要;而且,这项技术在实际中大有用途,“你可以用它来帮助改善对老年人和残疾人的护理,比如告诉护理人员是否有老人跌倒,或者他们是否已经吃过药等等。”

一旦机器能够看懂视频,具备视觉能力的AI不仅能够应用于医疗、教育、娱乐等领域,无人驾驶汽车也能通过现实世界的“视频”更好地预测人类及车辆等的行为,更准确地进行决策,相信其安全性也能得到质的提升。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2689845.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-15
下一篇 2022-08-15

发表评论

登录后才能评论

评论列表(0条)

保存