
摘要
人体运动预测旨在根据过去的一系列3D骨架数据来预测未来的姿态。尽管这一问题近年来受到了越来越多的关注,但大多数研究主要集中在孤立的单个人体上。在本文中,我们探讨了当人类执行协作任务时的运动预测问题,即在给定两个人过去的骨架序列的情况下,预测他们未来相互作用的运动。为此,我们提出了一种新颖的交叉交互注意力机制,该机制利用了两人的历史信息,并学习预测两个姿态序列之间的交叉依赖关系。由于目前没有可用于训练此类交互情况的数据集,我们收集了一个新的实验室环境下的人员交互数据集ExPI(Extreme Pose Interaction),其中包含专业舞者表演林迪舞动作的115个序列,共注释有30,000帧的3D人体姿态和形状。我们在ExPI数据集上对所提出的交叉交互网络进行了详尽的评估,并展示了无论是在短期还是长期预测中,该网络均能持续优于现有的单人运动预测方法。
代码仓库
GUO-W/MultiMotion
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| multi-person-pose-forecasting-on-expi-common | XIA | Average MPJPE (mm) @ 1000 ms: 238 Average MPJPE (mm) @ 200 ms: 55 Average MPJPE (mm) @ 400 ms: 112 Average MPJPE (mm) @ 600 ms: 162 |
| multi-person-pose-forecasting-on-expi-unseen | XIA | Average MPJPE (mm) @ 400 ms: 121 Average MPJPE (mm) @ 600 ms: 174 Average MPJPE (mm) @ 800 ms: 218 |