
摘要
我们提出了一种方法,该方法利用图神经网络、多级消息传递和无监督训练,实现了实时预测逼真的服装动态。现有的基于线性混合蒙皮的方法必须针对特定的服装进行训练,而我们的方法对身体形状具有普适性,既适用于紧身衣物,也适用于宽松、飘逸的服装。此外,我们的方法在推理时能够处理拓扑结构的变化(例如带有纽扣或拉链的服装)和材料属性的变化。作为本研究的关键贡献之一,我们提出了一种分层消息传递方案,该方案能够高效传播刚性拉伸模式,同时保留局部细节。实验结果表明,我们的方法在定量评估中优于强大的基线模型,并且其结果被认为比现有最先进方法更加逼真。
代码仓库
Dolorousrtur/HOOD
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| physical-simulations-on-4d-dress | HOOD_Lower | Chamfer (cm): 2.070 Stretching Energy: 0.008 |
| physical-simulations-on-4d-dress | HOOD_Outer | Chamfer (cm): 5.355 Stretching Energy: 0.011 |
| physical-simulations-on-4d-dress | HOOD_Upper | Chamfer (cm): 2.668 Stretching Energy: 0.013 |
| physical-simulations-on-4d-dress | HOOD_Dress | Chamfer (cm): 4.292 Stretching Energy: 0.010 |