
摘要
在长时间未剪辑视频中定位和分类动作片段对于许多应用(如监控和机器人技术)具有重要意义。传统方法通常采用两步流程,首先生成逐帧概率,然后将其输入高级时间模型。而近期的方法则利用时间卷积直接对视频帧进行分类。本文提出了一种用于时间动作分割任务的多阶段架构。每个阶段都包含一组扩张时间卷积,以生成初始预测结果,这些结果随后由下一阶段进一步优化。该架构通过结合分类损失和我们提出的平滑损失进行训练,后者旨在惩罚过度分割错误。广泛的评估表明,所提出的模型在捕捉长距离依赖关系和识别动作片段方面表现出色。我们的模型在三个具有挑战性的数据集上取得了最先进的结果:50Salads、Georgia Tech Egocentric Activities (GTEA) 和 Breakfast 数据集。
代码仓库
yabufarha/ms-tcn
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| action-segmentation-on-50-salads-1 | MS-TCN | Acc: 80.7 Edit: 67.9 F1@10%: 76.3 F1@25%: 74.0 F1@50%: 64.5 |
| action-segmentation-on-breakfast-1 | MS-TCN (IDT) | Acc: 65.1 Average F1: 50.6 Edit: 61.4 F1@10%: 58.2 F1@25%: 52.9 F1@50%: 40.8 |
| action-segmentation-on-breakfast-1 | MS-TCN (I3D) | Acc: 66.3 Average F1: 46.2 Edit: 61.7 F1@10%: 52.6 F1@25%: 48.1 F1@50%: 37.9 |
| action-segmentation-on-gtea-1 | MS-TCN | Acc: 79.2 Edit: 81.4 F1@10%: 87.5 F1@25%: 85.4 F1@50%: 74.6 |