McKell WoodlandJohn WoodBrian M. AndersonSuprateek KunduEthan LinEugene KoayBruno OdisioCaroline ChungHyunseon Christine KangAradhana M. VenkatesanSireesha YedururiBrian DeYuan-Mao LinAnkit B. PatelKristy K. Brock

摘要
尽管生成对抗网络(GANs)在医学影像领域展现出巨大潜力,但其应用仍面临四大主要瓶颈:计算成本高、数据需求量大、可靠的评估指标缺乏以及训练过程复杂。本研究针对这些挑战,首次将StyleGAN2-ADA应用于高分辨率医学影像数据集,开展系统性探索。所使用的数据集包含来自非增强与增强对比剂计算机断层扫描(CT)的含肝脏轴向切片。此外,我们还整合了四个公开的多模态医学影像数据集进行综合评估。在训练过程中,我们采用迁移学习(基于Flickr-Faces-HQ数据集预训练)与数据增强技术(水平翻转及自适应判别器增强)对StyleGAN2网络进行训练。生成图像的质量通过定量指标Fréchet Inception Distance(FID)进行评估,并辅以定性分析:邀请七名放射科医生及放射肿瘤科医师参与视觉图灵测试,以判断生成图像的真实性。实验结果表明,StyleGAN2-ADA在肝脏CT数据集上取得了5.22(±0.17)的FID分数;同时,在公开的SLIVER07、ChestX-ray14、ACDC以及Medical Segmentation Decathlon(脑肿瘤)数据集中,分别创下10.78、3.52、21.17和5.39的新纪录FID分数。在视觉图灵测试中,临床专家将生成图像误判为真实图像的比例为42%,接近随机猜测水平,表明生成图像在视觉上已具备高度逼真性。我们的计算消融研究进一步揭示:迁移学习与数据增强能够显著稳定训练过程,并提升生成图像的感知质量。此外,FID分数与临床专家对医学图像的主观感知评价具有高度一致性。最终,本研究发现,StyleGAN2-ADA能够在无需超参数调优或重新训练的情况下,持续生成高质量医学影像,展现出良好的泛化能力与实用性。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| medical-image-generation-on-acdc | StyleGAN2-ADA | FID: 21.17 |
| medical-image-generation-on-chestxray14 | StyleGAN2-ADA | FID: 3.52 |
| medical-image-generation-on-sliver07 | StyleGAN2-ADA | FID: 10.78 |