为什么高线束激光雷达反而更省算力?

点击展示全部

[首发于智驾最前沿微信公众号]在自动驾驶中,激光雷达一直是非常重要的感知硬件,而在评价激光雷达的性能时,一个最常被提及的指标就是“线数”。所谓线数,是指激光雷达在垂直方向上能够同时发射和接收激光束的数量。每一束激光都会扫过环境并返回反射信号,形成一个测距点,成千上万个点组合在一起,就构成了三维的点云图

在行业发展初期,16线、32线雷达是主流,而如今128线甚至更高级别的雷达已成为旗舰车型的标配。随着线束越来越多,不知道大家是否会有一个疑问,那就是既然线数越高,产生的数据量就越大,那计算机处理起来肯定越费劲,对算力的要求是否也就越高?

其实事实恰恰相反,在自动驾驶感知系统中,高线数激光雷达反而能降低对芯片算力的压榨,而低线数雷达虽然传感器端数据稀疏,却会成为算力消耗的黑洞。

点云密度决定了算力大小

要理解为什么会出现这个现象,首先要明白激光雷达是如何构建世界的。线数其实直接决定了垂直角分辨率,线数越高,点云就越密集。我们可以将这想象成数码相机的像素,16线雷达产生的图像就像是一张极其模糊、满是马赛克的低分辨率照片;而128线雷达则能提供一张细节分明的高清影像。

此外,低线数雷达的垂直角分辨率通常在0.5度以上,这意味着随着距离的增加,激光束之间的间隙会迅速扩大。当探测目标处于50米甚至100米开外时,原本就稀疏的扫描线可能只会从一个行人身上扫过一两下,甚至完全漏掉如马路牙子或井盖等低矮的障碍物。

图片源自:网络

这种物理上的“信息缺失”给后端的计算机视觉算法带来了巨大的麻烦。自动驾驶系统需要通过这些破碎、稀疏的点去还原出障碍物的真实三维轮廓、精确位置和运动状态。

由于原始数据无法提供足够的几何细节,算法不得不开启“脑补”模式。此时,计算中心需要调动大量的算力资源,通过复杂的概率模型或深度神经网络来推断那些在扫描线缝隙中消失的信息。

而高线束雷达在探测阶段就通过密集的激光脉冲完成了这一任务,它输出的点云本身就包含了清晰的边界、平整的平面和细腻的结构。对于计算机而言,处理这种“所见即所得”的数据,远比处理那些需要反复推敲的残缺信号要轻松得多。

稀疏数据的补全代价

在处理低线数雷达数据时,最核心的算力消耗环节在“深度补全”和“上采样”中。当输入的原始点云极度稀疏时,为了保证感知的安全可靠,感知系统就需要引入点云超分辨率重建的技术。

这种技术利用深度学习模型,参考摄像头的RGB图像信息,通过跨模态融合的方式将稀疏的16线点云“伪装”成高密度的稠密深度图。这一过程涉及极其复杂的数学计算,尤其是大规模的卷积神经网络运算,每一帧数据的补全都需要消耗大量的浮点运算资源。

图片源自:网络

有研究显示,如果仅使用极低线数的点云(如降采样至1%),感知的准确度会大幅下降,为了提升这种条件下对车辆和行人的识别置信度,算法必须增加网络深度和参数量,这直接导致了处理器(如GPU)的功耗飙升。

此外,低线数雷达在远距离探测上的劣势,迫使系统必须增加“时空对齐”的计算频率。由于单帧数据点数太少,系统很难仅凭一帧图像就断定前方是一个行人还是一个静态的路桩,因此需要调取前几帧的数据进行累加和运动补偿,这在计算机科学中被称为时序融合。频繁的数据存储、读取和多帧对齐操作会产生严重的延迟和内存压力。

与之形成鲜明对比的是,高线数雷达输出的单帧点云就足以让模型产生极高的置信度。由于数据本身具有极高的保真度,后端算法可以使用更加轻量化的骨干网络。

这意味着,虽然雷达传来的“原始快递”重了,但“拆件分拣”的逻辑变简单了,总体感知的延迟反而得以缩短。

高线数如何赋能算法?

高线数雷达对算力的释放,还体现在它让“规则类算法”重新回到了舞台中央。在感知逻辑中,深度学习虽然强大,但它像是一个黑盒,且极其耗能。如果激光雷达的分辨率足够高,系统就可以采用更简单的几何逻辑来识别物体。

如利用相邻激光环(Ring ID)之间的高度突变来直接提取物体边缘,或者通过地面点剔除算法迅速锁定障碍物。这种基于物理规则的算法计算复杂度极低,甚至不需要动用昂贵的AI算力平台,可以在一些低成本的嵌入式芯片上实时运行。

图片源自:网络

像是VoxelNet(体素网络)或PointPillars(点柱网络)这类经典的点云处理架构中,点云的密度分布对效率有着决定性影响。当点云稠密且分布均匀时,体素化的填充率更高,算法可以更高效地利用稀疏卷积技术跳过空旷区域,直接聚焦于有意义的特征点。

相反,当数据过于稀疏且存在大量空洞时,神经网络在搜索特征时会产生大量的冗余计算,会试图从噪声中分离出有效信号。因此,在相同的检测精度要求下,高线数输入对应的感知管道其实拥有更高的计算吞吐量。

此外,高线数带来的冗余度也让系统更加稳定。128个激光器独立工作,即使其中少数出现故障,密集的点云依然能维持基本的轮廓,算法不需要为此额外设计极其复杂的纠错补丁逻辑,这也隐形地节省了软件层面的算力开销。

安全冗余与系统效率之间的博弈

虽然高线数激光雷达的物料成本(BOM)明显高于低线数雷达,但它带来的系统级回报却不容小觑。采用高线数雷达可以有效减轻自动驾驶主控芯片的负担,意味着车企不需要采购最顶级、最昂贵的算力芯片,也能实现流畅且安全的感知效果。这不仅优化了芯片的选型成本,还通过降低芯片功耗简化了整车的散热设计和电源管理系统。

不仅如此,高线数激光雷达能够显著改善自动驾驶在极端环境下的稳定性。在雨雾天气或光照条件剧烈变化的场景中,视觉感知会失效,而低线数雷达又可能因为光束散射导致数据更加稀疏、不可用。此时,如果拥有高线数雷达提供的丰富三维结构,系统就能在不增加计算压力的前提下,维持一个安全的基础感知水平。

图片源自:网络

这种由硬件带来的确定性,是任何通过软件补全、算法强化所无法完全替代的。随着激光雷达技术的芯片化和制造规模的扩大,线数的增加不再意味着体积的成倍增长,而是通过集成化设计在更小的空间内实现更强大的探测能力。

最后的话

激光雷达线数与算力的关系,本质上是物理世界数据精度与计算机推理复杂度之间的转换。高线数雷达通过在前端投入更多的激光探测资源,极大地降低了感知算法对“缺失信息”进行推算的需求,实现了感知的去复杂化。

这种“多端少云”的策略,让自动驾驶系统能够以更轻盈的姿态运行,不仅提升了实时性,也为后续的决策和规划留出了更充裕的算力裕量。在通往更高级别自动驾驶的道路上,更高线数的激光雷达不仅是提升清晰度的工具,更是优化系统全局效率、实现硬件与算法完美协同的关键基石。

声明:本文由太平洋号作者撰写,观点仅代表个人,不代表太平洋汽车。文中部分图片来源网络,感谢原作者。
0
03-24
分享
发表您的看法…
半价购
分享