
摘要
由于未剪辑视频占用较大的内存空间,当前最先进的视频定位方法通常基于预先计算的视频片段特征进行操作。这些特征通常是从针对已剪辑动作分类任务训练的视频编码器中提取的,因此不一定适用于时间定位。在本研究中,我们提出了一种新颖的监督预训练范式,用于片段特征的训练,该范式不仅能够对活动进行分类,还考虑了背景片段和全局视频信息以提高时间敏感度。大量实验表明,使用我们提出的新型预训练策略训练的特征,在三个任务上显著提升了近期最先进方法的性能:时间动作定位、动作提案生成和密集视频字幕生成。我们还展示了我们的预训练方法在三种编码器架构和两个预训练数据集上的有效性。我们认为,视频特征编码是定位算法的重要组成部分,提取时间敏感特征对于构建更精确的模型至关重要。项目网站上提供了代码和预训练模型。
代码仓库
HumamAlwassel/TSP
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| dense-video-captioning-on-activitynet | TSP | BLEU-3: 4.16 BLEU-4: 2.02 METEOR: 8.75 |
| temporal-action-localization-on-activitynet | TSP | mAP: 35.81 mAP IOU@0.5: 51.26 mAP IOU@0.75: 37.12 mAP IOU@0.95: 9.29 |
| temporal-action-localization-on-thumos14 | TSP | Avg mAP (0.3:0.7): 50.46 mAP IOU@0.1: 74.02 mAP IOU@0.2: 72.29 mAP IOU@0.3: 69.1 mAP IOU@0.4: 63.3 mAP IOU@0.5: 53.5 mAP IOU@0.6: 40.4 mAP IOU@0.7: 26 |
| temporal-action-proposal-generation-on | TSP | AR@100: 76.63 AUC (val): 69.04 |