
摘要
弱监督时序动作定位(Weakly Supervised Temporal Action Localization, WSTAL)旨在仅依赖视频级别的类别标签,对长时未剪辑视频中的动作实例进行定位与分类。由于缺乏片段级别的标注以指示动作边界,以往方法通常为未标注的片段分配伪标签。然而,不同类别之间的某些动作在视觉上具有高度相似性,因此为一个片段精确指定唯一动作类别具有挑战性;错误的伪标签会显著损害定位性能。为解决该问题,本文提出一种新颖的类别排除视角方法,命名为渐进式互补学习(Progressive Complementary Learning, ProCL),该方法逐步增强片段级别的监督信号。本方法的灵感来源于一个被以往工作忽视的事实:视频级别的标签能够精确指出所有片段绝对不包含的类别。基于此,我们首先通过互补学习损失函数排除这些确定不存在的类别。随后,引入背景感知的伪互补标签机制,以进一步排除那些歧义较小片段中可能不包含的类别。此外,针对剩余仍存在歧义的片段,我们通过区分前景动作与背景内容来降低其语义模糊性。大量实验结果表明,所提方法在两个主流基准数据集THUMOS14和ActivityNet1.3上均取得了新的最先进性能。
代码仓库
Run542968/ProCL
pytorch
GitHub 中提及
fjchange/him-net
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| weakly-supervised-action-localization-on-1 | ProCL | mAP@0.5:0.95: 26.1 |
| weakly-supervised-action-localization-on-4 | ProCL | avg-mAP (0.1-0.5): 58.2 mAP@0.5: 40.5 |
| weakly-supervised-action-localization-on-8 | ProCL | avg-mAP (0.1:0.7): 47.7 |