行业热点 | 李骏院士团队在自动驾驶感知安全领域取得重大突破!

中国汽车工程学会名誉理事长、中国工程院院士、清华大学教授李骏团队在自动驾驶感知安全领域取得重大突破。团队提出的BEVHeight++视觉感知框架,攻克了传统算法在路侧高视角与车端低视角场景下因相机位姿

中国汽车工程学会名誉理事长、中国工程院院士、清华大学教授李骏团队在自动驾驶感知安全领域取得重大突破。团队提出的BEVHeight++视觉感知框架,攻克了传统算法在路侧高视角与车端低视角场景下因相机位姿变动、运动模糊等干扰导致的检测性能下降难题,相关研究成果被国际顶级期刊IEEE Transactions on Pattern Analysis and Machine Intelligence (T-PAMI,影响因子20.8)正式录用。同时,相关技术也被NVIDIA公司集成至DeepStream人工智能算法平台,为智能网联汽车安全性提供关键技术支撑。

在技术亮点方面,针对传统深度估计在远距离易失效的问题,研究团队提出一种基于高度的空间建模方法,利用物体到地面的垂直距离进行三维空间建模,实现了与距离无关且对相机位姿变动鲁棒的空间表示。

基于此,团队进一步设计了高度-深度双重建模分支网络,通过图像-鸟瞰视角两阶段融合框架生成抗干扰性强的融合鸟瞰视角特征图,实现了同时适配车端(低视角)与路侧(高视角)场景不受相机位姿变动、运动模糊等因素影响的鲁棒视觉感知。

基于高度的空间建模方法

BEVHeight++感知模型整体框架

在性能表现方面,研究团队在两大路侧场景数据集(DAIR-V2X-I、Rope3D)和五大车端场景数据集(nuScenes、Waymo、KITTI、KITTI-360、nuScenes-C)上进行了全面验证。

其中,在DAIR-V2X-I路侧感知基准测试中,针对实际场景中普遍存在的相机位姿扰动影响,BEVHeight++模型相较现有方法实现+28.2%的精度提升。在nuScenes-C车端感知鲁棒性基准测试中,BEVHeight++模型相比现有方法NDS(综合检测评分)和mAP(平均精度)两大核心指标上分别取得9.3%和8.8%的性能突破。

BEVHeight++感知模型路侧场景测试结果

在实际意义方面,在相机位姿变动、运动模糊等噪声扰动下,BEVHeight++均表现出了强鲁棒性,助力提升智能网联汽车安全性。于此同时,所提方法已被NVIDIA公司 DeepStream人工智能算法平台产业应用,表现出较强实用价值及对工业领域的重要影响。

  • 李骏院士团队简介

中国汽车工程学会名誉理事长、中国工程院院士、清华大学教授 李骏

清华大学李骏院士团队致力于研究以智慧城市、智能交通、智能汽车(SCSTSV)为核心理念的未来城市智能共享出行架构及智能共享运载工具,并在此基础上不断探索基于使能赋能融合一体化技术的高级智能网联汽车在各种复杂城市场景下实现更高效、更安全的协同网联驾驶(CCAD)和协同网联运载(CCAM)。先后发布了首个面向中国城市复杂气候环境的自动驾驶4D成像毫米波雷达数据集Dual Radar。所提出的基于“外观-运动”组合优化的相机-激光雷达融合高可靠三维多目标跟踪算法CAMO-MOT,在自动驾驶领域著名的大规模数据集nuScenes三维跟踪评测榜单上排名第一(保持7个月)。构建了智能驾驶融合感知发明专利群(美国授权发明专利10项,中国授权发明专利50项),团队研究成果已发表在T-PAMI、T-ITS、T-NNLS、T-VT、Information Fusion、Scientific Data、CVPR、ICCV、ICRA等自动驾驶知名期刊和国际学术会议上。(文章来源清华大学车辆与运载

相关推荐