
摘要
文本到图像扩散模型能够生成高质量的图像,但无法对图像中的单个实例进行控制。我们引入了InstanceDiffusion(实例扩散),该方法为文本到图像扩散模型增加了精确的实例级控制。InstanceDiffusion支持每个实例的自由形式语言条件,并允许灵活指定实例位置的方式,如简单的单点、涂鸦、边界框或复杂的实例分割掩模及其组合。我们提出了对文本到图像模型的三项主要改进,以实现精确的实例级控制。我们的UniFusion模块使文本到图像模型具备实例级条件的能力,ScaleU模块提高了图像保真度,而Multi-instance Sampler(多实例采样器)则改善了多个实例的生成效果。在每种位置条件下,InstanceDiffusion显著超越了现有的专门模型。特别是在COCO数据集上,对于边界框输入,我们的性能比之前的最先进方法高出20.4% AP$_{50}^\text{box}$;对于掩模输入,则高出25.4% IoU。
代码仓库
frank-xwang/InstanceDiffusion
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| conditional-text-to-image-synthesis-on-coco-1 | Instance Diffusion (zero-shot) | instance success rate: 0.51 mIoU: 0.46 |