
摘要
时间动作定位(Temporal Action Localization, TAL)是视频分析中的关键任务,旨在精确识别动作的起始与结束时间。现有方法如卷积神经网络(CNNs)、循环神经网络(RNNs)、图卷积网络(GCNs)以及Transformer等,在捕捉长距离依赖关系和时间因果性方面仍存在局限。为应对这些挑战,本文提出一种基于选择性状态空间模型(Selective State Space Model, S6)的新型TAL架构。该方法引入特征聚合双向S6模块(Feature Aggregated Bi-S6 block)、双路双向S6结构(Dual Bi-S6 structure)以及递归机制,有效增强了时间维度与通道维度的依赖建模能力,同时保持参数复杂度不变。在多个基准数据集上的大量实验表明,所提方法取得了当前最优性能:在THUMOS-14数据集上达到74.2%的平均精度(mAP),ActivityNet上为42.9%,FineAction上为29.6%,HACS上为45.8%。消融实验进一步验证了方法的有效性,结果表明,Stem模块中的双路结构以及递归机制显著优于传统方法。本研究充分展示了基于S6模型在TAL任务中的巨大潜力,为后续研究提供了新的方向与技术路径。
代码仓库
lsy0882/RDFA-S6
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| temporal-action-localization-on-activitynet | RDFA-S6 (InternVideo2-6B) | mAP: 42.9 mAP IOU@0.5: 64.1 mAP IOU@0.75: 44.0 mAP IOU@0.95: 10.6 |
| temporal-action-localization-on-fineaction | RDFA-S6 (InternVideo2-6B) | mAP: 29.6 mAP IOU@0.5: 46.4 mAP IOU@0.75: 29.5 mAP IOU@0.95: 7.6 |
| temporal-action-localization-on-hacs | RDFA-S6 (InternVideo2-6B) | Average-mAP: 45.8 mAP@0.5: 66.4 mAP@0.75: 47.2 mAP@0.95: 14.3 |
| temporal-action-localization-on-thumos14 | RDFA-S6 (InternVideo2-6B) | Avg mAP (0.3:0.7): 74.2 mAP IOU@0.3: 88.7 mAP IOU@0.4: 84.6 mAP IOU@0.5: 78.2 mAP IOU@0.6: 66.6 mAP IOU@0.7: 51.9 |