国外媒体刊文称,包括特斯拉、谷歌和Uber在内的多家公司都在开发全自动驾驶技术。然而质疑者认为,由于现有人工智能技术的瓶颈,全自动驾驶汽车可能要花比预期中更长的时间才会面市。
以下为文章主要内容:
如果你相信公司CEO们的说法,那么也许会认为,一辆可完全自动驾驶汽车距离面市可能只有几个月时间。
2015年,特斯拉CEO埃隆·马斯克(Elon Musk)预测,到2018年,特斯拉将推出全自动驾驶汽车。谷歌也是如此。Delphi和MobileEye的Level 4自动驾驶系统目前计划在2019年推出。同年,Nutonomy将在新加坡街道上部署数千辆无人驾驶出租车。通用汽车将于2019年投产一款全自动驾驶汽车,这款汽车没有方向盘,也无法由人工干预。在这些预测背后,企业投入了真金白银,并基于这样的假设:软件发展能赶得上表面上的热闹。
简单来看,我们目前距离全自动驾驶已非常接近。Waymo已经在亚利桑那州公共道路上测试此类汽车。特斯拉和多家其他公司已销售自动驾驶系统的基础版本,这样的系统在发生意外情况时仍然需要司机来干预。在这个过程中,发生了一些事故,有人丧生。但只要系统持续改进,逻辑不断优化,我们就能做到完全不需要人工介入。
然而,全自动驾驶汽车可能比我们想象中更远。人工智能专家越来越担心,自动驾驶系统如果想要可靠地避免事故,那么可能需要几年到几十年的时间。自我训练的系统需要面对现实世界的混乱,而纽约大学加里·马库斯(Gary Marcus)这样的专家正准备调整原先的预期。有些时候,这也被称作“人工智能的冬天”。技术发展的推迟可能会给指望自动驾驶技术的公司带来灾难性后果,让整整一代产品无法实现完全的自动化。
我们可以很容易地理解,为什么汽车厂商对自动驾驶持乐观态度。过去10年中,基于机器学习算法来处理大数据集的深度学习技术推动了人工智能和科技行业的巨大发展。深度学习被用于谷歌搜索、Facebook消息流、会话式的语音转文本算法,以及强大的围棋系统。在互联网行业以外,我们利用深度学习技术来探测地震、预测心脏病,以及标记出摄像机镜头前的可疑行为。如果没有深度学习,这一切都是不可能的。
然而,深度学习需要大量训练数据才能正确工作,需要包含算法可能遇到的几乎所有场景。例如,类似谷歌图片的系统只要获得足够的训练数据,告诉它每种动物长什么样,那么就能很好地去识别动物。马库斯将此类任务称作“插值”,即对所有已标记的图片进行分析,判断新图片是否属于某个群组。
在数据来源和结构方面,工程师可以很有创新性。然而,算法有自身的极限。除非预先向算法提供大量豹子的图片,否则算法无法识别出什么是豹子,即使这个算法此前已经能识别家猫和美洲虎,并且知道豹子的长相介于两者之间。这个过程被称作“泛化”,需要完全不同的能力集。
很长一段时间以来,研究者认为,可以使用正确的算法来优化泛化能力,但最近的研究表明,传统的深度学习在泛化能力方面甚至比我们想象中还要糟糕。研究发现,传统的深度学习系统很难在一段视频的不同帧之间进行泛化,例如由于背景的细微变化将同一只北极熊贴上了狒狒、猫鼬和黄鼠狼的标签。由于每个分类都基于数百个因素的共同作用,因此图片的微小改变就会完全改变系统判断。其他研究员已经在对抗数据集中利用过这点。
马库斯指出,聊天机器人狂热是关于泛化问题的最新例子。他表示:“2015年时,我们得到了关于聊天机器人的承诺。然而,这些聊天机器人表现得并不好,这并不仅仅是收集数据的问题。当你在网上和他人交谈时,你不希望他们总是重复之前的话。你希望他们能对你的话做出回应,有更多样的对话技巧,给你不同于他人的回应。深度学习技术并不能开发出这样的聊天机器人。一旦最初的狂热退去,企业就会对聊天机器人项目失去信心。目前,很少还有公司仍在积极开发聊天机器人。”
这就让特斯拉和其他自动驾驶公司面临一个可怕的问题:自动驾驶汽车能否与图像搜索、语音识别和人工智能等其他成功应用类似,持续得到优化?它们是否会像聊天机器人一样,遇到泛化问题?自动驾驶是插值问题还是泛化问题?驾驶过程中的不可预见性究竟有多少?
现在回答这些问题还为时过早。马库斯说:“无人驾驶汽车就像个科学实验,我们不知道答案。”我们从来没有实现过这种水平的自动驾驶,因此不知道这是种什么样的任务。就识别熟悉的对象和遵循规则而言,现有的技术能很好地完成。然而马库斯担心,在易发生事故的情况下很好地完成驾驶,这要比汽车行业想象中复杂得多。“关于如何处理意料之外的新东西,深度学习做得并不好。”
我们获得的实验数据来自公开的事故报告,所有这些报告都提供了一些不同寻常的细节。在2016年的车祸中,一辆特斯拉Model S全速撞向一辆白色半挂卡车的尾部。当时,半挂卡车的高度和明亮的阳光令自动驾驶系统发生误判。今年3月,Uber的无人驾驶汽车撞到一名推着自行车的女性,当时后者突然横穿马路。根据美国交通运输安全委员会(NTSB)的报告,Uber的软件最开始将这名女性错误地识别为未知物体,随后是一辆汽车,最终是一辆自行车。在加州的另一场事故中,一辆Model X朝着障碍物行驶,在碰撞前还在加速,系统这样做的原因目前仍不清楚。
每场事故看起来都像是个边缘案例,即工程师无法预料的情况。然而,几乎每场事故都涉及了不可预见的场景。如果缺乏泛化能力,无人驾驶汽车将不得不一个又一个地学习新情况,而最终结果就是一连串的意外事故,且安全性无法随时间推移得到改善。如果怀疑这个结论,那么可以看看人工干预自动驾驶系统的报告。这样的场景已经发生,技术进步已经进入平台期。
Drive.AI创始人、百度前高管、行业最知名的推动者之一吴恩达认为,问题并不在于构建完美的驾驶系统,而在于告知路人如何去判断无人驾驶汽车的行为。换句话说,我们可以尝试让道路交通环境对汽车来说更安全,而不是从另一个方向入手。关于不可预料的场景,我问他,他是否认为,当前的系统能处理拿着手杖的行人,即使系统从未见过这样的对象。他回答:“我认为,许多自动驾驶团队都能处理人行横道上拿着手杖的行人,但在高速公路中间这样使用手杖会非常危险。”
他认为:“我们不应该用人工智能去解决手杖的问题,而是应该与政府合作,要求人们遵守交通规则,有更谨慎的考虑。安全问题并不仅仅依靠人工智能技术的质量。”
深度学习并不是唯一的人工智能技术,企业已开始探索替代方案。尽管技术在业内受到密切保护(看看Waymo近期对Uber的诉讼就可以知道),但许多公司已经转向了基于规则的人工智能。这是种更古老的技术,工程师会将特定行为和逻辑写入自治的系统中。这种系统无法像深度学习一样,通过分析数据来自主确定行为,但却能避免深度学习的某些局限性。然而,由于基本的认知任务仍然受到深度学习技术的深刻影响,因此很难说工程师们在隔离可能的错误时有多成功。
Lyft董事会成员、风险投资人Ann Miura-Ko认为,部分问题在于对自动驾驶汽车的期望过高,因此将所有非全自动驾驶的东西都归结为失败。他表示:“期望从0直接走到Level 5本身就是不合理的,并不是技术上的失败。我认为,所有这些微小的改进都是在通往全自动驾驶道路上取得的重要成就。”
不过仍不清楚,自动驾驶汽车目前的困境还会持续多久。类似特斯拉Autopilot的半自动驾驶产品已足够智能,能处理大部分情况,但如果发生意料之外的情况,那么仍需要人工干预。因此,一旦实际发生问题,很难知道问题的原因是汽车还是司机。有些批评人士认为,即使错误很难完全归咎于机器,但与人工驾驶相比,这种两者相结合的模式可能更不安全。兰德公司的一项研究估计,无人驾驶汽车需要行驶2.75亿英里,且不发生致命的安全事故,才能证明它们和人工司机一样安全。特斯拉Autopilot第一起致人死亡的事故发生在项目进行了1.3亿英里时,距离2.75亿英里还有很远的距离。
不过,由于深度学习仍然是汽车感知对象、做出回应的核心,优化事故率可能比看起来更难。杜克大学教授玛丽·卡明斯(Mary Cummings)提到了今年早些时候Uber发生的致命事故。“感知-决策周期通常相互关联,就像这起导致行人死亡的事故一样。感知环节未能做出明确判断,导致决策环节决定不采取任何行动。而由于传感器提供了太多假警报,紧急制动也被关闭。”
这场事故导致Uber今年夏天暂停了自动驾驶项目,这对于其他计划推出自动驾驶系统的公司来说不是个好兆头。在整个行业中,各家公司都在竞相获得更多数据,以解决这个问题。他们认为,积累里程数最多的公司将开发出最强大的系统。然而马库斯认为,还有更难以解决的问题:“他们只是使用已有的技术,希望技术能发挥效果。他们依靠的是大数据,因为这是他们的支柱,但没有证据表明,这可以帮你达到我们需要的精确度。”
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)