查看原文
其他

集度汽车双激光雷达深度解剖:自动驾驶“一分一合”冗余方案探索

圆周智行 圆周智行 2023-01-05

昨天,集度汽车ROBO 1正式对外公布概念车部分细节,最大的亮点就是它车前盖的两颗激光雷达,来自禾赛科技的AT128方案,我们在之前的文章中,已经重点剖析了该激光雷达的优劣。详见文章:理想L9激光雷达解剖:153万点频、200米@10%测距、70米最远地面线



除了特斯拉,激光雷达已经成了智能汽车的重要标志之一。从数量看,激光雷达也开始由少到多演变,和摄像头的发展路径如出一辙。


目前业内在激光雷达上的方案主要有3种:1、单激光雷达方案,代表车型有理想 L9 、蔚来 ET7 以及 飞凡 R7 等;双激光雷达方案,代表车型小鹏 P5 、小鹏 G9 以及智己 L7 ;第三种就是多激光雷达方案(激光雷达数量≥2),代表车型有极狐阿尔法 S HI 版、长城机甲龙、威马 M7 、路特斯 ELETRE 。


集度智驾负责人王伟宝介绍。集度ROBO 1的自动驾驶感知方案,用了双激光雷达感知融合方案;而在集度汽车的自动驾驶感知方案中,它又带来了激光雷达、摄像头双备份方案。我们权且用“一分一合”来表示,“分”指的是摄像头和激光雷达两套方案并行工作,互为冗余。注意,二者是并行,而不是目前业内常见的激光雷达和摄像头互补的方案;“合”说的是双激光雷达的感知融合方案。


先来看看双激光雷达的“一合”。


双激光雷达的“一合”


目前,搭载2颗以上激光雷达的乘用车中,激光雷达基本都是各自为政。简单点说就是各干各的活,彼此互不干扰。但在集度汽车ROBO 1身上,这两颗激光雷达采用了融合感知的设计思路。让两个激光雷达能够达到一颗激光雷达的效果。也就是说,原来两颗互不干扰的激光雷达现在开始协同合作了。


它能带来的好处如下:


1、更大的视场角FOV。


根据集度公布的数据,双激光雷达的探测视场角FOV 是180 °,也就是整个水平面。之前禾赛科技公布,其AT128机型的FOV是120°。视场角扩大了60°。


有同学会奇怪,一颗激光雷达视场角120°,两颗不应该是240°吗,怎么还变小了?


因为激光雷达扫射的是一个扇形范围,两颗激光雷达的视场角也不是简单的相加,它们有一定的重合区域。所以,假设将两个融合激光雷达的FOV设为X,那么120°<X<240°,因为不允许有视野盲区存在。这个可以参考多摄像头的布置方案。


根据集度的说法,该融合方案在“鬼探头”、左右有遮挡物等行车场景中,对左右横穿行人或障碍物的识别能力更强。


这是中国路况常见的场景。在激光雷达方案中,之前业内在解决这个问题时都采用的是补盲方案,(字面意思理解,补充视野盲区。)就是上文提到的各干各的活,彼此互不干扰,比如小鹏P5。


2、拥有加强“加强扫描区”。


上文提到,两颗激光雷达会有一定的重合区域。我们权且将其称之为“加强扫描区”。


这会带来什么效果呢?


来看看禾赛官方的描述,“双激光雷达对车辆重点区域的识别更精准。在车辆正前方60°FOV的区域内,双激光雷达可做到加倍重叠,目标物上的点云数据更多,识别准确率更高。”


这个逻辑不难理解,如果扫描物在激光雷达正前方时,相当于激光雷达对同一个区域扫描了两次,就像我们画画一样,先用素描笔画一遍,然后再重新描一遍,出来的图像肯定更清晰。


关于这方面的探测体验,集度在视频里有重点展示。摄像头在黑夜无法识别的场景,集度的双激光雷达都能识别。根据集度官方描述,激光雷达是主动发射红外激光的传感器,不依赖外部光线进行感知。尤其是在光线过强或过暗的环境中,激光雷达提供了重要的感知能力加持,让辅助驾驶系统更安全。对比图如下:



关于红外技术的探讨,《圆周智行》在此前的文章中,有过深度剖析,有兴趣的朋友可以查阅:深度解剖广汽埃安“全球首创”的红外智驾技术


集度双激光雷达官方视频如下:



3、安全双保险。


两颗激光雷达融合感知时,能够提供更好的安全冗余。一颗失效了,另一颗也能发挥作用。


一个激光雷达从业者告诉《圆周智行》,目前已经上车的激光雷达,可靠性,稳定性验证还处于初级阶段,需要时间来解答。


从时间节点推算也确实如此,业内所知的在量产乘用车上激光雷达最早上车的是小鹏P5,于2021年发布。而一款车的平均寿命在8-10年左右,激光雷达的可靠性验证还有很长的路要走。


感知融合方案下,多一颗激光雷达,就多一份安全保障。


双激光雷达有好处,也有缺点。和多摄像头方案一样,确保两颗激光雷达始终保持相互对称,不会因为震动、外力带来的“视觉偏移”,也是双激光雷达融合方案需要考虑的问题。因为一旦偏移可能会带来感知偏差,进而影响决策判断等一连串的问题。简单点说,激光雷达的位置得足够“牢固”,不能有任何“松动”。


激光雷达与摄像头方案互为冗余的“一分”


目前,在自动驾驶的感知处理方案中,业内的主流思路是多传感器融合。就是大家常听到的“摄像头+激光雷达+毫米波雷达”方案。虽然各个传感器彼此的分工不同,但它们对当前环境最终只会输出一个分析结果。


翻译成大白话就是,摄像头采集到的数据和激光雷达采集到的数据会放在一起处理、分析,然后对当前环境输出一个结果,其运作逻辑图如下:



但是,自动驾驶老玩家Mobileye 提供了另一种解题思路,即激光雷达和纯视觉双向并行的思路。


和之前的融合方案不同,它有两个子系统,一个是纯视觉系统,另一个是“激光雷达+毫米波雷达”系统,二者同时工作,并且独立发挥作用。


翻译成大白话就是,它会对当前环境输出两个结果,激光雷达一个,摄像头一个,二者互不干扰,敢干各的活。最终输出两套环境感知结果供计算平台决策。如果其中一个失效,另一个能发挥作用,比如摄像头方案对当前环境产生了误判,但激光雷达精准识别了当前环境,计算平台依然能够做出正确的决策。其工作逻辑图如下:



融合方案不一样,如果摄像头对当前环境产生了误判,激光雷达准确识别了当前环境,但如果二者融合之后的结果依然对当前结果产生误判(要看二者谁在决策层的权重更高),那计算平台依然会根据误判的结果进行决策。比如这两年发生的辅助驾驶的几次重大交通事故,很多程度都是因为这个原因。


上文提到的“一合”属于激光雷达子系统的感知融合方案。


根据王伟宝介绍,集度的自动驾驶路线包含两种,一种是摄像头方案为主。集度背靠百度,在纯视觉方案上,百度已经在自家的Robotaxi和ANP上落地。后者包括城市领航辅助系统 ANP 以及泊车 AVP 。


另一种是摄像头和激光雷达方案双线并行,两个方案独立运用在智能驾驶系统里,互为冗余。类似于Mobileye的方案,也就是我们本节重点探讨的“一分”。


王伟宝将集度SIMU Car 的研发划分为三个阶段:


1.0 是小学阶段,主要专注在算法逻辑、架构设计、基础功能模块开发,软件跟底盘的连调,智能驾驶基于纯视觉方案;


2.0 中学阶段,也就是现阶段会实现面向 L4 电子电气架构 JET、点到点的自动驾驶能力的量产;


3.0 大学阶段,也就是在年底进入量产前交付的最后测试阶段,主要是提高智能驾驶每个专项的能力。


目前 SIMU Car 的研发步入了 2.0 阶段。1.0 阶段,集度的智能驾驶系统就是基于纯视觉驱动方案,实现了城市和高速域的贯通。2.0 阶段才正式融入了激光雷达方案。



根据集度计划,ROBO 1 将于 2023 年上市交付。届时,我们再看其真实表现如何。


参考资料:https://zhuanlan.zhihu.com/p/501038666 


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存