4 个月前

EagerMOT: 基于传感器融合的3D多目标跟踪

EagerMOT: 基于传感器融合的3D多目标跟踪

摘要

多目标跟踪(MOT)通过在三维空间和时间上定位周围物体,使移动机器人能够进行知情的运动规划和导航。现有的方法依赖于深度传感器(例如,激光雷达)来检测和跟踪三维空间中的目标,但由于信号稀疏性,这些方法的感知范围有限。另一方面,相机提供了密集且丰富的视觉信号,有助于定位远处的物体,但仅限于图像域。本文中,我们提出了一种简单的跟踪框架——EagerMOT,该框架积极整合来自两种传感器模态的所有可用物体观测数据,以获得对场景动态的全面理解。利用图像,我们可以识别远处接近的物体;而深度估计则允许在物体进入深度感知范围时对其轨迹进行精确定位。借助EagerMOT,我们在KITTI和NuScenes数据集上的多个MOT任务中取得了最先进的结果。我们的代码可在https://github.com/aleksandrkim61/EagerMOT 获取。

基准测试

基准方法指标
3d-multi-object-tracking-on-nuscenesEagerMOT
AMOTA: 0.68
MOTA: 0.57
Recall: 0.73
3d-multi-object-tracking-on-nuscenesPolarMOT
AMOTA: 0.66
multi-object-tracking-and-segmentation-on-1EagerMOT
AssA: 73.75
DetA: 76.11
HOTA: 74.66
multiple-object-tracking-on-kitti-test-onlineEagerMOT
HOTA: 74.39
IDSW: 239
MOTA: 87.82

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
EagerMOT: 基于传感器融合的3D多目标跟踪 | 论文 | HyperAI超神经