
摘要
近年来,图卷积网络(Graph Convolutional Networks, GCNs)在人体运动预测领域占据了主导地位。各种类型的图卷积方法已被提出,每种方法都经过精心设计并融入了复杂的网络架构中。本文突破了现有知识的局限,提出了通用图卷积(Universal Graph Convolution, UniGC),这是一种新颖的图卷积概念,可以将不同的图卷积方法视为其特例。基于 UniGC 在网络层面的应用,我们提出了 GCNext,一种新的构建 GCN 的范式,该范式能够动态地确定最适合的图卷积方法,既可以在样本级别也可以在层级别进行。GCNext 提供了多种应用场景,包括从头开始训练一个新的 GCN 或者改进一个已有的 GCN。在 Human3.6M、AMASS 和 3DPW 数据集上的实验表明,通过独特的模块到网络设计,GCNext 的计算成本比现有的 GCN 方法降低了多达 9 倍,并且实现了最先进的性能。
代码仓库
bradleywang0416/gcnext
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| human-pose-forecasting-on-3dpw | GCNext | Average MPJPE (mm) 1000 msec: 72.0 |
| human-pose-forecasting-on-amass | GCNext | Average MPJPE (mm) 1000 msec: 65.3 |
| human-pose-forecasting-on-human36m | GCNext | Average MPJPE (mm) @ 1000 ms: 64.7 Average MPJPE (mm) @ 400ms: 30.5 |