9月7日,上汽AI LAB视觉团队自动驾驶检测跟踪算法在国际榜单nuScenes上排名全球第一,将跟踪算法关键指标AMOTA(多目标追踪平均准确度)在现有最高记录上提升3个百分点。
此前,团队已凭借纯视觉BEV(以视觉为中心的俯视图)目标检测算法的全新突破在nuScenes上夺得全球第三的成绩,实现感知数据从后融合至前融合模型的跨越式提升,并验证了优异的算法表现。据了解,nuScenes是一个全球公认的用于自动驾驶的权威大规模数据集,它是第一个提供来自自动驾驶汽车的整个传感器套件的数据的大规模数据集。
算法作为智驾核心所在,技术能力与技术表现成为自动驾驶企业关注的热点,在nuScenes榜单上,目标检测(Detection)、目标跟踪(Tracking)等热门赛道竞争激烈。众多企业与高校学术团队投入技术研发与提升,其中包括了广汽集团、DeepMotion、地平线、理想汽车等企业,以及清华大学、华中科技大学等高校。
多目标跟踪(Multiple Object Tracking)是自动驾驶领域感知技术中的重要一环。首先需要通过传感器检测自车周围目标,并为其赋予唯一ID(身份标识号),在追踪过程中,算法必须实现运动中目标物ID不能发生跳变,由此得到目标物当前与历史运动状态,预估之后的可能位置。
上汽AI LAB跟踪算法DAMEN-T是自主研发的BEV目标检测方法 DAMEN(Depth-Augmented CaMEra FusioN)的扩展。在BEV空间下,传统后融合方案存在的问题得到有效解决,覆盖车身360°视野范围的6个相机获取的感知信息由一个模型统一处理,共享同一视野,显著提升了处理速度与准确性。
团队在BEV目标检测的基础上,增加跟踪器来完成跟踪任务,并优化了每个类别的3D IoU和运动模型以获得更好的关联。值得一提的是,上汽AI LAB团队的跟踪算法DAMEN-T引入了在落地项目中设计的跟踪器优化技巧,与目标检测算法相结合,在现有方案中脱颖而出、摘得桂冠。相比于尚处于学术研究阶段的方案,DAMEN-T工程化程度更高,已经过实际项目的不断迭代,可以与落地量产高度适配。
在下一个阶段,一方面,上汽AI LAB团队会将现有纯视觉方案进一步拓展至多传感融合,包括Lidar与Radar。另一方面,根据目标检测及跟踪得到的目标物准确运动状态信息,在BEV空间下还可以探索对目标物轨迹的预测,让自动驾驶车辆更“聪明”。
未来,上汽AI LAB将继续走在智驾技术自主研发的前沿一线,同时推动Robotaxi的量产应用,落实上汽集团“新四化”战略,促进共享出行领域的智能化、网联化发展。(龚观)