3 个月前

基于对抗性扩散模型的无监督医学图像翻译

基于对抗性扩散模型的无监督医学图像翻译

摘要

通过源模态到目标模态的图像补全(imputation)可有效提升医学成像协议的多样性。目前广泛采用的一种目标图像合成方法是基于生成对抗网络(GAN)的一次性映射(one-shot mapping)。然而,这类隐式表征图像分布的GAN模型往往存在样本保真度有限的问题。为此,本文提出一种基于对抗性扩散建模的新方法——SynDiff,以在医学图像转换任务中实现更优性能。为直接建模图像分布的内在特征,SynDiff采用一种条件扩散过程,逐步将噪声与源图像映射至目标图像空间。在推理阶段,为实现快速且准确的图像采样,SynDiff在逆向扩散方向上引入对抗性投影,并采用较大的扩散步长。为支持无配对数据集的训练,本文设计了一种循环一致性架构,包含耦合的扩散与非扩散模块,实现两种模态间的双向转换。在多对比度MRI及MRI-CT图像转换任务中,对SynDiff与现有GAN模型及扩散模型进行了全面评估。实验结果表明,SynDiff在定量与定性两个层面均显著优于现有基准方法,展现出卓越的图像生成性能。

代码仓库

axondeepseg/AxonDeepSynth
pytorch
GitHub 中提及
icon-lab/syndiff
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
image-to-image-translation-on-ixi-datasetSynDiff
PSNR: 30.42

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
基于对抗性扩散模型的无监督医学图像翻译 | 论文 | HyperAI超神经