近日,清华大学与密歇根大学联合提出的自动驾驶汽车安全性「稀疏度灾难」问题,发表在了顶刊《Nature Communications》上。
研究指出,安全攸关事件的稀疏性导致深度学习模型训练难度大增,提出了密集学习、模型泛化改进和车路协同等技术路线以应对挑战。
随着自动驾驶技术的快速发展,交通系统迎来了前所未有的变革。尽管自动驾驶技术在过去二十年中取得了显著进步,但 L4 级别自动驾驶汽车尚未实现商业化,其主要原因是安全性能尚未达到大规模应用的要求。
自动驾驶汽车(Autonomous Vehicle,AV)在真实道路上的测试已达数百万公里,但仍无法有效处理多种安全攸关事件,这些事件的概率分布呈现长尾特征,称为自动驾驶汽车安全性的长尾挑战(Long-Tail Challenge)。
然而,此问题在已有文献中尚未正式定义,这种理解的缺乏严重阻碍了解决这一问题的进程。
为此,清华大学助理教授封硕和密歇根大学 Mcity 主任、讲席教授刘向宏(Henry Liu)合作在国际上首次提出了自动驾驶汽车安全性挑战背后的关键科学问题 —— 稀疏度灾难(Curse of Rarity,CoR),该研究成果作为评论文章(Comment)发表在 Nature 子刊《Nature Communications》
论文链接: https://doi.org/ 10.1038 / s41467-024-49194-0 前序工作: https://www.tsinghua.edu.cn/ info / 1175/ 102314.htm研究证明,随着安全攸关事件的稀疏度增加,深度学习梯度的估计方差会指数增加,使得模型训练所需数据量和计算量指数增加,严重阻碍了模型在安全攸关任务的学习能力。
由于深度学习在自动驾驶领域应用的广泛性,稀疏度灾难广泛存在于自动驾驶的感知、预测、决策、测试等安全攸关任务中,造成了自动驾驶汽车的安全性挑战。
在此基础上,研究提出了三种解决稀疏度灾难的技术路线,包括使用安全攸关数据进行密集学习、改善模型泛化和推理能力以及利用车路协同等技术降低安全风险事件发生概率。
什么是稀疏度灾难?
通俗地讲,稀疏度灾难是指真实驾驶环境高维空间中的安全攸关事件(Safety-critical Events)的发生概率极低,导致车辆驾驶数据中包含的安全攸关事件的信息极端稀疏,安全攸关事件的信息被大量的常规驾驶数据所掩盖,导致深度学习模型难以对这些安全攸关事件进行学习。
更糟糕的是,自动驾驶汽车更好的安全性能也意味着安全攸关事件的发生频率进一步降低,导致深度学习模型更加难以对安全攸关事件进行学习。
理论上分析,稀疏度灾难是指深度学习的梯度方差随着安全攸关事件的稀疏度增加而指数增加,导致深度学习所需数据和计算量相应指数增加。
深度学习的关键在于获得神经网络的最优参数,梯度下降方法在每个训练步使用一批数据来估计损失函数的梯度,然而随着安全攸关事件稀疏度的增加,梯度估计的方差可能会呈指数增长,导致稀疏度灾难。
图 1 深度学习模型的稀疏度灾难示意图。稀疏度灾难给自动驾驶带来哪些挑战?
由于深度学习方法在自动驾驶领域应用的广泛性,稀疏度灾难广泛存在于自动驾驶的感知、预测、决策、测试等安全攸关任务中,导致自动驾驶汽车面临安全性挑战。
1. 感知
自动驾驶的感知任务是从周围环境中获取信息并提取相关知识。在这一任务中,不少研究者讨论了数据不平衡的问题,即只有一小部分的数据类别具有大量样本,而其他类别只有非常少的样本。
然而,对于自动驾驶汽车的安全攸关感知任务来说,不平衡比(Imbalance Ratio)往往极高(例如,可能达到),而现有的方法,如类再平衡、信息增强 和模块改进等方法,往往不足以解决这一问题,因为它们只能处理有限的不平衡比(通常小于)。
不平衡比的这种数量级上的显著差异导致不平衡数据的问题转变为稀疏度灾难的问题。此外,即使每个感知错误看起来都微不足道,一系列感知错误的累积效应将会十分危险。
例如,单帧的对象分类错误可能不是什么问题,而连续多帧的分类错误则可能导致安全攸关事件发生,这种序列的发生概率远低于任何单个错误的发生概率,因此稀疏度灾难的问题会更加严重。
2. 预测
自动驾驶汽车的高安全性能要求需要对周围交通参与者的行为进行精确的建模和准确的预测。在安全攸关场景下,即使是预测中的微小错误也是不可接受的。
例如,在乱穿马路的情况下,行人轨迹的精确预测对于自动驾驶汽车避免碰撞至关重要。一个小的预测误差可能会导致误报或漏报,让自动驾驶汽车的驾驶决策过于谨慎或过于自信,从而导致事故。
同样的,驾驶行为仿真中的不准确性可能导致低估或高估自动驾驶汽车的安全性能,从而误导自动驾驶汽车的研发过程。
3. 决策
深度模仿学习和深度强化学习等深度学习技术已被应用于自动驾驶汽车的决策过程。然而,当涉及到安全攸关场景时,由于缺乏真实世界的数据,深度学习模型可能会受到稀疏度灾难的影响。
这种稀疏性导致策略梯度估计方差较大,阻碍深度学习进行有效学习。另一类确保决策安全的方法则基于一系列假设。
典型假设包括可获得自动驾驶汽车的系统模型,其特征可能是是有界的未知动力学和噪声。但是由于存在稀疏度灾难问题,当遇到高维驾驶环境中的安全攸关事件时,这些假设往往难以保证。
4. 测试
自动驾驶汽车安全性的测试评估对自动驾驶汽车的广泛部署至关重要。现阶段通常将仿真测试、封闭场地测试和道路测试相结合,在自然驾驶环境中测试自动驾驶汽车。然而,由于稀疏度灾难,评估自动驾驶汽车的安全性往往需要数十亿英里。
为了加速这一过程,研究者提出了多种方法,如基于场景测试方法,这些方法侧重于在定制化生成的场景中测试自动驾驶汽车。然而,稀疏度灾难给生成时空复杂的安全攸关场景带来了严峻的挑战。
例如,由于生成复杂安全攸关场景时的较大方差,基于重要性采样的方法可能会出现严重的低效性,因此许多现有方法仅限于处理具有有限动态对象的短场景片段,有较强的时空局限性,无法捕捉真实世界安全攸关事件的全部复杂性和随机性。
如何解决稀疏度灾难?
针对自动驾驶汽车的稀疏度灾难,研究给出了给出三种可能的技术路线,三种技术路线可以互相补充。
路线 1:使用更多安全攸关事件数据进行有效训练
第一条技术路线从数据入手,旨在通过更好地利用额外数据来不断提升对安全攸关事件的 处理能力。
一种思路是只利用与安全攸关事件相关的数据进行密集学习(Dense Learning),这可以显著降低估计方差,证明过程可以参考文章方法部分的定理 1。
随之而来的一个问题是,如何定义并识别安全攸关事件?这一问题极具挑战性,因为安全攸关事件依赖于特定问题的目标函数,并且受到驾驶环境时空复杂性的影响。
更重要的是,目前仍缺乏能够指导安全攸关事件数据利用的相关理论。针对自动驾驶汽车的安全性验证,作者之前的工作已经尝试通过开发密集深度强化学习方法 (Dense Deep Reinforcement Learning, D2RL) 来解决稀疏度灾难问题。
理论和实验结果表明,密集深度强化学习方法可以显著降低策略梯度估计的方差,这是解决稀疏度灾难的关键一步。
另一个问题是如何收集或生成更多稀疏的事件数据。特斯拉提出了影子模式测试(Shadow Mode Testing)的概念,通过比较人类驾驶和自动驾驶的行为来识别稀疏事件,但文献中没有给出具体细节。除了从自然驾驶环境中收集数据外,还可以采用各种数据增强方法来生成安全攸关场景。
路线 2:改善模型泛化和推理能力
第二条技术路线则聚焦提高机器学习模型的 泛化和推理能力。直觉上,人类可以通过有限的驾驶经验(通常不到一百小时的训练)掌握驾驶技术,未来的自动驾驶汽车也可能在不依赖大量特定任务数据的情况下克服稀疏度灾难。
这需要自动驾驶汽车同时具备自下而上的推理(感知数据驱动)和自上而下的推理(认知-期望驱动)能力,来弥合数据中没有的信息差距。
这些要求符合通用人工智能 AGI 的发展。近年来,语言大模型和视觉语言模型等基础模型通过采用全监督微调、上下文学习和思维链等技术,在自然语言处理、视觉理解和推理方面表现出了显著的泛化和推理能力。
尽管目前仍有幻觉等问题需进一步研究,语言大模型和视觉语言模型通过利用广泛的数据,为实现自上而下的 推理进而解决稀疏度灾难问题提供了可能的技术路线。
路线 3:降低安全攸关事件发生概率
第三条技术路线则通过降低安全攸关事件的发生概率来减轻稀疏度灾难对自动驾驶汽车的影响。
一种方法是将传统的基于模型的方法与深度学习方法相结合以更好地发挥两者的优势,例如,形式化方法(Formal Methods)基于抽象模型来防止自动驾驶汽车的不安全行为。当然,如相关文献所述,想要充分利用形式化验证方法的潜力,仍需要解决多种挑战。
另一种方法是通过利用车路协同等技术,基于基础设施的传感器或协同感知来增强态势感知 ,帮助自动驾驶汽车克服其自身车载传感器的局限性。
例如,通过车载人工智能实现 4-5 个 9 的安全可靠性,通过车路协同等技术再实现 1-2 个 9 的安全可靠性,使得系统整体安全性达到大规模落地应用要求。然而,如何有效利用这些额外信息来提高性能仍然是一项具有挑战性的任务,特别是在安全攸关场景中。
参考资料:
https://doi.org/10.1038/s41467-024-49194-0
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
本文由LinkNemo爬虫[Echo]采集自[https://www.ithome.com/0/777/941.htm]