自动驾驶和激光雷达-lbeo

Lbeo的全称是Lbeo Automotive Systems GmbH,是一家德国的智能驾驶激光雷达系统供应商,既可以提供激光雷达硬件,也可以提供配套的软件算法。Ibeo为自己的激光雷达产品提供点云处理和软件算法,目前支持车道标线、目标物识别,支持的目标物分类包括乘用车、卡车、自行车和行人。

自动驾驶和激光雷达-lbeo

激光雷达的线束越多越好么

激光雷达线束越多就需要更多的能量来发射所有的激光,使用多线数激光雷达会存在能量的问题,供电的电池很快就会耗尽;会存在散热问题;会存在计算资源能力上限的问题,这些数据用于传感器融合时,数据量非常庞大。机械旋转式的多线激光雷达是实现高分辨率探测的一种方法,但从车规和降成本方面考虑,是有瓶颈的。

与人开车类似,当你开车的时候,你的集中观察的区域大约是5度,只要有5度你就能知道发生了什么。如果有一辆车快速地从路边切入,我问你那是一辆什么车,你可能并不知道具体是什么车。但是你可以感觉到有一辆车突然开过来,你可以看到一个影子,并且根据影子变化采取行动。所以适用于自动驾驶的激光雷达,可以智能锁定那些会对本车产生影响的目标物,再把足够多的分辨率分给这个目标物。探测的目标可能很小,比如路上的石头,有时候是一个大卡车。对于大卡车,我们自然不需要那么多的线数,对于路上的石头,如果我知道它在那里,我就可以把探测区域集中在那么一小块,而不需要全环境360度的探测,这种360度3D探测方式下,会有很大的探测区域是天空。

Lebo认为下一代激光雷达——固态3D激光雷达。

自动驾驶需要原始数据层的融合

摄像头、激光雷达、毫米波雷达这三个核心传感器各自提取目标,然后不同传感器间比对,得出一个结果的称为目标级别融合。这种融合方式的问题在于——当不同传感器各自生成目标时,和目标无关的数据就会被丢掉。但实际上这些被过滤掉的原始数据可能包含有意义的特性信息,可以跟其他传感器数据融合,帮助做出更准确的判断。

自动驾驶和激光雷达-lbeo

上图中因为角度的问题,每个传感器看到的红球数量是不一样的。1号传感器检测到一个物体,2号传感器检测到两个物体。于是在传感器融合时出现了无法判断的情况。

传感器融合结果准确与否,很大程度上取决于各个传感器对自己局限性的认识。这些局限性可能包括其他物体的干扰,或者是有隐藏的部分,也可能来自于天气条件的干扰等,因为雷达、激光雷达等在雨天或者雾天的表现各不相同。每个传感器都应该上报自己的局限性,最终,这就意味着每个传感器提供的信息,包括原始数据,其实就是可能性的问题了。

之后,如果有某个固定的标准,每个传感器能够提供包括点云、可能性、可靠性在内相似的信息,你就能据此建立一个数学模型,但该数学模型输出的结果依然只是对目标物体可能性的一种描述,但这已经是一种生成环境模型很好的方式了。这意味着,最后就不存在上述实验可能出现的,到底是一个物体还是两个物体的争议了。但问题在于,这样的数学模型是非常复杂的。绝大多数人在进行传感器融合时,一般开始采取的都是传统的方法。即你可能最开始只有一个雷达,紧接着有摄像头加入,这个时候就要融合雷达和传感器的数据。你可能发现了两种传感器提供数据有分歧,但通常人们是基于具体的使用案例来解决存在的争议的,比如在这个案例中我们主要参考摄像头的数据,因为雷达的数据并没有更可靠,结果就是随着传感器数量的增加,你就无法建立持续性的数学模型,因为它是基于不断进化这个基础产生的。如果采用这个方法来进行传感器融合的话,你可能永远都无法实现L5级的自动驾驶。

那么采取其他截然不同的方法呢?

你首先需要先建立一个数学模型,然后再根据这个数学模型来设计传感器,但不是很多公司会选择这种方法。因为一旦建立了数学模型之后,你就定义了接口(interface),即使有某个传感器失能,你完全可以选择对这些传感器的数据不予理会。


分享到:


相關文章: