(特约作者 朱玉龙)本文将对Google的无人驾驶车辆的内容做一些梳理,包括前几日已经初步抛出来的对人工智能在汽车智能驾驶的路线的话题的一些总结。本文将分三个部分,介绍Google无人驾驶车辆的主要开发者和开发情况,最新车辆的配置信息还有车辆的软件结构的一些思考。
这里首先初步的梳理一下无人驾驶车辆的历史:
· 1970年以前:一些车企使用射频和磁钉的方式来导引车辆实现自动驾驶。
· 1977~2000年:日本、欧洲和美国的一些高校进行了一些实验和开放项目,主要提供给高校和研究院所进行的开放项目,如EUREKA Prometheus、CMU NAVLAB、AHS Demo。
· 2004和2006年:分别进行DARPA的一些比赛,鼓励各个高校组织实际的车辆相互竞争参与比赛。
· 2007年:DARPA城市挑战赛,这个选择了城市道路这项有很高难度的项目来给各个高校空间,这里Carnegie Mellon和Stanford这两个车队比赛成绩很接近。
第一部分 Google无人驾驶车辆的开发者
Google对无人驾驶车辆的故事应该从DARPA开始的,在《The DARPA Urban Challenge Autonomous Vehicles in City Traffic》这本书收录了2007年美国的DARPA。
2007年的各个优秀车队的车辆信息,这里就包括两个主要车队的人员Boss和Junior车队,由Carnegie Mellon University和Stanford Artificial。
Intelligence Lab这两个主体构成。
如图2所示,目前Google车辆的CEO是John Krafcik、项目的总监是Chris Urmson,Bryan Salesky负责硬件开发。
图2 Google 无人驾驶车辆项目的主要人员
这个项目的前期,是Sebastian Thrun带着下面这些团队成员一起去做的整个项目。
· Michael Montemerlo :是整个项目的灵魂人物,是软件的负责人,并自己参与规划和优化的工作中,他目前还在Google。
· Hendrik Dahlkamp :是软件工程师,主要的工作是车辆定位和地图,去了Google以后也是从街景车,目前已经从Google离职去了一家创业公司担任CTO。
· David Stavens:他的工作也是定位和地图方面,离开google以后和Sebastian创立了Udacity。
· Dmitri Dolgov :目前的Google的软件Lead工程师,也是规划和优化的工程师。
· Scott Ettinger:系统测试方面的工程师,目前还在Google。
注:这是通过将所有下面成员和Google工程师对比得来的,这里的方法是根据每个人的去向做了个梳理。在网上可以查到的和Google自动驾驶车辆有关的共有约80位工程师。
图3是当时斯坦福参与车辆的团队构成,当时由大众北美、大陆和博世等德系公司来支持这个项目,而原有斯坦福的团队主要是在车辆的定位、地图、动态识别感知、控制和优化那块做大量的创新性的设计和考虑。
图 3 斯坦福的无人驾驶车辆参赛团队
第二部分 Google无人驾驶车辆的配置信息
Google现在正在用的是 23辆 Lexus RX450h SUVs 25 很Q的原型车,之前还有少量的Prius(5辆还有一辆Audi TT)改装的无人驾驶车辆。对比一下Google使用的感知技术主要由:
1)360 LIDAR光学雷达:Velodyne HDL-64 LIDAR (HDL)这款光学雷达,两个队伍都用着合适就一直保留了下来。
2)毫米波雷达:两个队伍分别采用了博世和大陆的毫米波雷达,实际在后续的设计中也一直保留了下来。
3)天线:这既是GPS的,也是通信所需要的。
4)超声波传感器:起到辅助定位的办法,主要计算作用。
5)摄像头:图像的办法,在识别静态物体的时候还是很有用的。
Google经过了比赛和大量的尝试以后,还是找到了自己的将多传感器融合进行感知的办法。这点应该来说,是需要大量的实际处理测试之后才能有收获的。
图4 Google改装车的配置
图5 现在Google 工程车的配置
图 6 两辆比赛车的传感器配置
第三部分 无人驾驶车辆的程序架构和Google的进化
对比两个车队的实际的程序架构,其主要的构成主要为:
1)Mission Planning 任务规划
任务规划车辆根据已知的路网(通过全局路径规划),计算可能的路径对应的成本(时间&风险),简单来说就是当前位置A=>目的地B点,我们看到的最佳路径的任务规划器。
2)Behavior Generation 行为生成
根据任务分配以后,可以将车辆的顶层策略做出来,基本可分为道路行驶、穿越路口和区域处理(泊车)三部分。这里可以理解为车辆地图解析出来的战略行为的执行过程,也是车辆的状态机的切入点。
3)Motion Planning 运动规划
这里其实涉及的内容很细,整个车辆的细节控制加速、减速和转向,以及对应的车辆的自身位置和自身姿态状态的处理尤其关键。这部分更涉及到怎么去控制车辆做到很好的状态。
4)Mechatronics & Perception & World Modeling 传感器处理、环境感知和建模
通过一系列传感器的感知,系统监控车辆周边环境识别,自动识别周围环境当中的障碍物(车辆、行人和动物等活动物体及其运动方向和速度),同时对于车道白线,道路标志和信号灯也能进行正确判断。其中交通标志如限速牌、红绿灯,一般通过视觉系统完成,难点主要在实时性和鲁棒性,需要考虑道路中可能有的光线变化、遮挡等问题。
这个重点就是将所有的原始数据融合形成对道路环境的认知,简单一些分类,也可以分为动态物体和静态物体的感知。
图7 两个车队的主体程序架构
这里最为核心的还是如何处理复杂多变的路面情况,前面写了一些简单的文字,和李博交流,他说有可能是NP Problem,you can‘t solve this problem in your life time。根据Google的日志情况来看,在服务器上的道路行驶AI是有相当的自学习和自我改进的能力了,一旦这个过程开始,则日积月累,一下走到了所有人的前面。所以看到Google在月度报告里面根据路面数据生成的场景再现,它根据传感器数据再现的人、车、标志和道路。
图8 Google在月度报告里面披露的场景图
所以Google领先汽车厂家的,还是其深度测试和验证的对汽车的交通规则让AI学习的部分,传统汽车企业完成ADAS功能,如车道保持、紧急制动、自适应巡航还是在单一场景里面实现的,如何加入整个对基本规则和各种规则的适应,这块是比较难尝试的。不过随着丰田投资AI、戴姆勒在卡车领域尝试测试,不断的加大投入,科技公司和传统车企之间在技术之间会相互融合和考虑,特别像SAE牵头做的V2V的DSRC(短距离通信)项目。
图9 交通场景规则
小结:Google无人驾驶车辆的资料只有一些表面浅显的材料可供查询,只有等到其真正外部测试和比较公开的时候我们才能一窥究竟。目前其战斗的潜力值还是很高的,需要我们持续关注和追踪。
相关文章
[错误报告][推荐][收藏] [打印] [关闭] [返回顶部]