“无人驾驶车”听起来好像还离我们很远?很难想象有一天“老司机”会从此消失。但是这一切正在Google、特斯拉这些巨头的推动下,离我们越来越近。
其实徒手改造无人驾驶车这件事,早就有脑洞清奇的人做过了。你!也!可!以!
不过先来打个脸!
是的,想必你听说过,2015年,一位叫George Hotz的26岁少年号称用1000美元,2000行代码,6个摄像头在自己车库实现了无人驾驶。
当然,机智的探长早就发现了他是标题党。
仔细研究一下,他的整套设备约4万美元,而且代码量远超过2000行代码,并且调用了大量第三方的库,他也只实现了高速场景下车道保持、行人探测、碰撞警告等辅助驾驶的功能。
啪啪啪!
其实也没有什么好羡慕的,改造无人驾驶车这件事情,探长也会。而且今天探长就决定公开潜心研究多年后的结果,心贴心办,手把手教,保证业界良心!
先来点科普,无人驾驶系统一般有三大模块,嗯,下面要划重点。
1.环境感知模块
无人驾驶汽车是通过传感器来感知环境信息。比如摄像头、激光雷达、毫米波雷达以及工业相机是用于获取环境信息;而GPS等用于获取车身状态的信息。当然还需要通过算法提取出有用的信息。
2.行为决策模块
行为决策是指无人驾驶汽车根据路网信息、获取的交通环境信息和自身行驶状态,产生遵守交通规则的驾驶决策的过程。
用人话说就是规划出一条精密的行驶轨迹,然后无人驾驶车就可以跟着这条轨迹走。
3.运动控制模块
运动控制模块是根据规划的行驶轨迹和速度以及当前的位置、姿态和速度,产生对油门、刹车、方向盘和变速杆的控制命令。
看起来是不是非常简单!? So Easy!
友情提示:如果你到这里已经不想继续往下看,请直接跳到文末最后两段,速成秘籍等着你(蜜汁微笑)
无人驾驶的实现路径大概有两大派系,一派是以谷歌为主的互联网公司,一派以特斯拉为首的汽车制造商。
谷歌的蓝图是无人车完全取代人来驾驶,把无人车看成机器人,所以没有方向盘、油门和刹车。
谷歌无人车顶上是约8万美元的64线激光雷达(Lidar)。它在高速旋转时发射激光测量与周边物体的距离,再根据距离数据描绘出精细的 3D 地形图,并跟高分辨率地图数据相结合建模,帮计算机做决策。
由此可知,这条技术路线的关键是对周围环境的模拟和3D地图数据,而谷歌在这方面有深厚的积累。
而特斯拉的计划是从机器辅助驾驶进化到完全自动驾驶。所以技术上逐步实现自动刹车、定速巡航、自适应巡航等,最终完全自动驾驶。
特斯拉 Model S主要是靠摄像头结合计算机视觉,特斯拉辅助驾驶使用的硬件包括前置摄像头、前置雷达(相对廉价的毫米波雷达)、12个超声波传感器。
好吧,看懂了区别没有???意思就是,Google 比较直接,直接让老司机都能回家休息。特斯拉比较温和,先从帮助你开始慢慢解放你的双手……
来点轻松的行业巨头八卦,作为课间休息:
Google投资了Uber并希望和Uber共同开展无人驾驶业务。而Otto的创始人 Anthony 是当初Google 无人驾驶车项目的技术主管,曾多次创业,被Google收购了3次!
而第N次离开Google后创立Otto,切入无人驾驶长途卡车市场,技艺惊人,这一次他又被收购了,不过不是被Google收购!而是Uber!
紧接着,Uber宣布无人驾驶业务不再和Google合作,要独立发展,Google眼看着自己的两个旧爱勾搭在了一起,不带自己玩了。嗯,三角恋总是不稳定。
现在问题来了?Uber和Otto在一起,谁是攻谁是……咳咳。
好,接下来说一说无人驾驶实现方案:
硬件部分
我们用前面被打脸的那位少年George Hotz的硬件方案作为入门,教你构建一个无人车驾驶系统的硬件部分。
根据的分析,George Hotz的主要的组件如下:
2016 讴歌 ILX小车$27900
Velodyne VLP-16 16线激光雷达 $7999
工业相机 约$2000
技嘉BRIX NUC小型机 约 $800
车载GPS 约$100
游戏手柄 约$80
消费级惯性测量单元(IMU) 约$50
显示器,网络交换机,USB Hub,USB-CAN转换卡,硬盘若干,逆变器
最棒的是这套方案都是世面上能够买到的,整套方案约4W美元。
嗯,4万美元对于土豪的你来说当然是小case啦!
讴歌ILX油门、刹车和转向都已电子化,但控制接口仍需要破解。而VLP-16为2015年最实惠的激光雷达LiDAR,拥有16线,测量范围100米,精度约3cm。而工业相机可以提供更加丰富的前方信息,具有全局快门和高动态范围的特性。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)