
摘要
在长时序视频中进行未来预测,需要基于当前及历史观测信息进行推理。本文提出一种灵活的多粒度时间聚合框架,以应对时间跨度、模型扩展性以及语义抽象层次等关键问题。我们证明,仅通过诸如最大池化(max-pooling)和注意力机制(attention)等简单技术,即可在下一动作预测与密集未来预测任务上实现当前最优性能。为验证模型的预测能力,我们在Breakfast、50Salads和EPIC-Kitchens三个数据集上进行了实验,均取得了当前最优的结果。此外,仅需进行少量修改,该模型还可轻松扩展至视频分割与动作识别任务。
代码仓库
dibschat/tempAgg
官方
pytorch
dipika-singhania/multi-scale-action-banks
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| action-anticipation-on-assembly101 | TempAgg | Actions Recall@5: 8.53 Objects Recall@5: 26.27 Verbs Recall@5: 59.11 |