
摘要
近年来,基于Transformer的跟踪器取得了令人印象深刻的进展,其中注意力机制发挥了重要作用。然而,注意力机制中的独立相关性计算可能导致注意力权重出现噪声和模糊,从而限制了性能的进一步提升。为了解决这一问题,我们提出了一种注意力中的注意力(Attention in Attention, AiA)模块,该模块通过在所有相关向量中寻求共识来增强正确的相关性并抑制错误的相关性。我们的AiA模块可以方便地应用于自注意力块和交叉注意力块,以促进视觉跟踪中的特征聚合和信息传播。此外,我们提出了一种简化的Transformer跟踪框架,称为AiATrack,通过引入高效的特征重用和目标背景嵌入来充分利用时间参考。实验结果表明,我们的跟踪器在六个跟踪基准上实现了最先进的性能,并且能够实时运行。
代码仓库
Little-Podi/AiATrack
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| object-tracking-on-coesot | AiATrack | Precision Rate: 67.4 Success Rate: 59.0 |
| video-object-tracking-on-nv-vot211 | AiATrack | AUC: 38.91 Precision: 53.47 |
| visual-object-tracking-on-got-10k | AiATrack | Average Overlap: 69.6 Success Rate 0.5: 80.0 Success Rate 0.75: 63.2 |
| visual-object-tracking-on-lasot | AiATrack | AUC: 69.0 Normalized Precision: 79.4 Precision: 73.8 |
| visual-object-tracking-on-needforspeed | AiATrack | AUC: 0.679 |
| visual-object-tracking-on-otb-100 | AiATrack | AUC: 0.696 |
| visual-object-tracking-on-trackingnet | AiATrack | Accuracy: 82.7 Normalized Precision: 87.8 Precision: 80.4 |
| visual-object-tracking-on-uav123 | AiATrack | AUC: 0.706 |