
摘要
近期,关于文本条件下的生成人类动作的研究工作广泛且多样。然而,反向任务即动作描述(motion captioning)方面的进展则相对缓慢。在本文中,我们介绍了一种新颖的架构设计,通过强调时空和自适应注意力机制来提高文本生成的质量,从而增强可解释性。为了促进类似人类的推理过程,我们提出了一些训练期间引导注意力的方法,这些方法着重于随时间变化的相关骨骼区域,并区分与动作相关的词汇。我们通过相关直方图和密度分布对模型的可解释性进行了讨论和量化。此外,我们利用可解释性来获取关于人类动作的细粒度信息,包括动作定位、身体部位识别以及区分与动作相关的词汇。最后,我们探讨了所提出方法在其他任务中的迁移能力。实验结果表明,注意力引导不仅使描述具有可解释性,还提升了性能,优于参数量更大但不可解释的现有最先进系统。代码已发布在:https://github.com/rd20karim/M2T-Interpretable。
代码仓库
rd20karim/m2t-interpretable
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| motion-captioning-on-humanml3d | ST-MLP | BERTScore: 40.3 BLEU-4: 25.0 |
| motion-captioning-on-kit-motion-language | ST-MLP | BERTScore: 41.2 BLEU-4: 24.4 |