
摘要
本文研究了图卷积网络(Graph Convolutional Networks, GCNs)在回归任务中的应用问题。目前的GCN架构存在卷积滤波器的感受野较小以及每个节点共享同一变换矩阵的局限性。为了解决这些局限性,我们提出了一种新的神经网络架构——语义图卷积网络(Semantic Graph Convolutional Networks, SemGCN),该架构能够在具有图结构数据的回归任务中运行。SemGCN学习捕捉诸如局部和全局节点关系等语义信息,而这些信息在图中并未显式表示。通过端到端训练从真实标签中学习这些语义关系,无需额外的监督或手工设计的规则。我们进一步探讨了将SemGCN应用于三维人体姿态回归的问题。我们的方法既直观又充分,因为二维和三维人体姿态都可以表示为一个结构化的图,该图编码了人体骨架中各关节之间的关系。我们进行了全面的研究以验证我们的方法。实验结果表明,SemGCN在使用90%较少参数的情况下仍优于现有最先进方法。
代码仓库
tamasino52/Any-GCN
pytorch
GitHub 中提及
garyzhao/SemGCN
官方
pytorch
GitHub 中提及
zhimingzo/modulated-gcn
pytorch
GitHub 中提及
sjtuxcx/ITES
pytorch
GitHub 中提及
happyvictor008/High-order-GNN-LF-iter
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-human-pose-estimation-on-human36m | SemGCN | Average MPJPE (mm): 57.6 Multi-View or Monocular: Monocular Using 2D ground-truth joints: No |
| 3d-human-pose-estimation-on-human36m | SemGCN (GT) | Average MPJPE (mm): 43.8 Multi-View or Monocular: Monocular Using 2D ground-truth joints: Yes |
| monocular-3d-human-pose-estimation-on-human3 | SemGCN | Average MPJPE (mm): 57.6 Frames Needed: 1 Need Ground Truth 2D Pose: No Use Video Sequence: No |