
摘要
生成复杂视觉场景的逼真图像在需要控制生成图像结构时变得具有挑战性。先前的方法表明,使用场景图可以控制包含少量实体的场景,但随着图的复杂度(即对象和边的数量)增加,这种方法的效果会下降。在这项工作中,我们指出当前方法的一个局限性在于它们无法捕捉图中的语义等价性。我们提出了一种新颖的模型,该模型通过从数据中学习规范化的图表示来解决这些问题,从而提高了复杂视觉场景的图像生成效果。我们的模型在大型场景图上展示了改进的经验性能,对输入场景图中的噪声具有鲁棒性,并且能够在语义等价的图上进行泛化。最后,我们在三个不同的基准数据集上展示了该模型的改进性能:Visual Genome、COCO 和 CLEVR。
代码仓库
roeiherz/CanonicalSg2Im
官方
pytorch
roeiherz/AG2Video
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| layout-to-image-generation-on-coco-stuff-4 | AttSPADE | FID: 54.7 Inception Score: 15.6 LPIPS: 0.44 |
| layout-to-image-generation-on-visual-genome-4 | AttSPADE | FID: 36.4 Inception Score: 11 LPIPS: 0.51 |