自动驾驶要靠什么来救

自动驾驶要靠什么来救,第1张

新年伊始,特斯拉宣布,仅用不到一年时间建成的上海特斯拉工厂生产的的Model 3将大幅降价。Model 3标准续航升级版起售价从35.58万下调至32.38万,同时,购车还将获得高额补贴,最后用户到手价为29.905万元。不到30万,就能买到的特斯拉Model 3,还是带基础版辅助驾驶功能的。一直对标BBA(奔驰、宝马、奥迪)的特斯拉在30万以下的国内市场要展开一场“大屠杀”了,这对于整个国内电动车市场将会产生不小的冲击。

不过,最让笔者好奇的却是,特斯拉自动驾驶是不是玩不动了,结合特斯拉多次升级后,自动驾驶事故依旧频发,显得其Autopilot自动驾驶系统一直鸡肋,从未改变。

传感器方案何时成熟?

暂且不提Autopilot的软件层面的问题,来说说它的Autopilot硬件系统。从Model 3整车来看,一共配置了8个摄像头、12个超声波传感器、1个毫米波雷达,由于2019年4月,马斯克diss了激光雷达的方案,所以特斯拉只能死磕毫米波雷达和其引以为豪的计算机视觉解决方案了。

先来看看特斯拉部分“鬼火”集锦,我们挑了一些具有相似性的进行比对。

2016年5月,处于自动辅助驾驶模式下的Model S撞上了前方正在低速左拐的大货车

2018年1月,还是处于自动辅助驾驶系统的Model S撞上了路边停放的消防车。

2019年8月,Model 3在自动辅助驾驶系统开启的情况下莫斯科高速公路上撞上了路边停放的拖车。

2019年12月,Model 3同样在自动辅助驾驶系统开启的情况下,撞上了静止的警车。

其实,不难发现,特斯拉对于大型障碍物或者静止的障碍物基本属于“眼瞎”状态。对于这种情况,理想汽车CEO李想曾表示,摄像头配合毫米波雷达的组合就像青蛙的眼睛,动态判断能力尚可,但是对于非标准的静态物体几乎无能,并且对于车辆以外的动态物体,识别率仍然不到80%。

要解开这个困惑,要从特斯拉Model 3摄像头说起,8个摄像头分别为3个位于车窗底部的前置摄像头,左右B柱(车身支柱)各一个摄像头和左右前轮翼子板下方的后视摄像头各一个,以及一个用来倒车的车位摄像头。这些摄像头传感器其实都是用来感知外部环境,这一块主要是通过AI训练让摄像头能够识别物体,由于静止物体种类多识别范围太广,有些事物没有训练过,例如,第一代Autopilot利用了Mobileye摄像头,而这款摄像头主要针对车头和车尾进行训练,车身侧面训练较少,遇到这种情况,系统无法识别,极有可能就漏报了。同时,对于快速移动的物体,摄像头捕捉的图像也是扭曲、模糊的,识别率也受影响。

另外,马斯克diss激光雷达最大的资本就是他们的强大算法,但是,摄像头的视觉总归是二维的,8张图片同时用算法处理,GPU的功耗负荷可见。而且,其使用的CMOS图像传感器在强光下的表现相当一般,会出现致盲的情况。

除了8个摄像头,再来看看特斯拉用来测距的12个超声波雷达。特斯拉使用的超声波雷达的感测距离在30英尺左右,约9m。这里拓展一下,超声波雷达目前主要使用的是APA和UPA雷达,UPA雷达的最大量程为2-2.5m,APA最大量程至少是5m,也有超过7m的在使用中。特斯拉这个使用的APA超声波雷达的9m感测范围在业界属于罕见品种,供应商的话,可以自行查阅。特斯拉使用的测距超声波雷达主要是用于泊车库位检测,和高速横向辅助,提升高速巡航功能的安全性和舒适性。但是,超声波雷达缺点很明显,温度敏感,而且,超声波传感器本身最大的问题就是通信问题,例如, 12个超声波雷达位于一个频段,防止互相干扰那就只能时分复用,12个摄像头轮一圈,计算速度堪忧。

重点来了,马斯克最喜爱的毫米波雷达,这也是自动驾驶传感器争议最多的部件。特斯拉Autopilot 1.0刚出来那会儿,主传感器是上面提到的摄像头,在出车祸啪啪打脸之后,特斯拉将毫米波雷达设为主传感器。有人会问为啥要死磕毫米波雷达,还是那句话,便宜!便宜!便宜!重要的事情说三遍,毫米波雷达的成本价格普遍在千元左右,激光雷达万元起步,作为商人的马斯克还是需要考虑成本问题,毕竟产品太贵,没人要,也不是个事儿。

话说回来,毫米波雷达优点是能够高效穿透雾、烟、灰尘,具有较强的抗干扰能力,但是在雨、雾和大雪等情况下效果一般。最致命的是,毫米波雷达几乎无法区道路侧面的金属标牌或道路上停放的静止汽车,因为雷达的空间分辨率很差,所以在算法上一般会忽略掉相对路面不移动的雷达回波,也就是会产生误报的可能性。比如,一个金属易拉罐底部凹陷的罐底位于汽车前方,反射回来的回波会被放大多倍,那就会造成车辆紧急制动。虽然特斯拉有表示通过点云、雷达快照组装、地图数据库进行处理,但是所谓的0.1s的快照组装成的3D模型算法成熟速度、地图数据库的完整性如何去保证,何时能够落地?

另外,2019年,特斯拉公布了自主研发的Autopilot 3.0芯片,替换了此前一直使用的英伟达 Drive PX 2 芯片,据称运算能力是此前英伟达的10倍,真的是官方所表示的能够具备“全自动驾驶能力”,马斯克这回还会是嘴炮吗,毕竟之前还是个L2级别的辅助驾驶。

车联网是自动驾驶的未来

先不说笔者是激光雷达派系的还是毫米波视觉派系的,像特斯拉目前这种成熟度的自动辅助驾驶汽车,开启自动模式上高速就是把脑袋别在腰上。要说到真正的自动驾驶,那还得把视角转移到车联网。聊到车联网,总能让笔者记起一句话。没有V2X,驾驶也能自动,但是没有V2X,无法真正的实现全场景自动驾驶。车联网的核心技术就是V2X(Vehicle to Everything),即“车联万物”,严格来说,V2X是用来辅助提升机器驾驶车辆的技术。早在上世纪50年代,为了解决交通安全和堵车的问题,通用和美国无线电公司就联合研究“元祖自动驾驶技术”了。

与自动驾驶所用的摄像头和雷达等技术对比,V2X的传感应用范围更广,探测距离更远,理论值为300米,并且不受视觉、障碍物的影响,本质上可以把V2X视为一个拉长拉远的“传感器”。最关键的是,V2X能够提供车辆之间行驶状态的实时共享,通过和周边车辆、道路、基础设施的通讯,获取比单车能得到的更多的信息,以及预测信息。另外,相比于目前自动驾驶在恶劣天气下表现不佳的情况,V2X是唯一不受天气影响的车用传感技术。

举例来讲,特斯拉、百度所研发的无人驾驶汽车只是V2X的一个特定应用。譬如,特斯拉的Model 3无法识别障碍物类型的时候会出现车祸,但是借助V2X的信息共享机制,以及道路分析系统,Model 3完全可以避免车祸。此前,通用公司曾展示过自家的V2X技术,包括车辆盲区以及变道预警、交叉路口碰撞预警、紧急制动预警、前向碰撞预警、车速引导、前方急转弯预警、道路湿滑预警等几项安全应用。

目前,国内也有一些企业已经入局V2X,例如百度 Apollo 车路协同开源方案、阿里云智能高速公路解决方案、华为C-V2X 智慧车路协同解决方案,华为 LTE-V2X 基站,还有一些创企也在提供支持 LTE-V2X 的 OBU和 RSU 通信终端产品和高精度地图系统。

在V2X产业链各环节成熟之前,现在的自动驾驶只能算辅助驾驶,因为它不成熟、不稳定、不安全,零事故率才是行业所追求的自动驾驶目标。所以,奉劝各位开特斯拉时,还是把双手放在方向盘上。

责任编辑:ct

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2604430.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-09
下一篇 2022-08-09

发表评论

登录后才能评论

评论列表(0条)

保存