摘要
在临床影像领域获取专家标注标签十分困难,因为全面标注过程耗时耗力。此外,并非所有可能相关的影像标志物在事前都能被充分识别或准确描述,因而难以指导标注工作。尽管监督学习在拥有专家标注训练数据的情况下能够取得良好效果,但其所能检测与利用的影像异常类型(即“发现词汇”)受限于已标注病灶的范围,难以覆盖未被事先定义的异常表现。为此,本文提出一种基于生成对抗网络(GAN)的无监督学习方法——快速异常生成对抗网络(fast AnoGAN,简称 f-AnoGAN),可有效识别异常图像及图像局部区域,所发现的异常模式可作为潜在的影像生物标志物候选。我们首先构建健康样本的生成模型,进而提出并评估一种高效的新数据映射至 GAN 隐空间的技术。该映射基于一个预训练的编码器实现,异常检测则通过综合评估模型构建模块的残差误差来完成,具体包括判别器特征层残差误差与图像重建误差。在光学相干断层扫描(OCT)数据上的实验表明,所提方法优于多种对比方法,并展现出高精度的异常检测能力。此外,通过两名视网膜专家参与的视觉图灵测试,结果显示生成的图像与真实正常视网膜OCT图像在视觉上无法区分。f-AnoGAN 的开源代码已发布于 https://github.com/tSchlegl/f-AnoGAN。
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| anomaly-classification-on-goodsad | f-AnoGAN | AUPR: 66.6 AUROC: 62.8 |
| anomaly-detection-on-hyper-kvasir-dataset | F-Anogan | AUC: 0.907 |
| anomaly-detection-on-lag | F-anoGAN | AUC: 0.778 |
| anomaly-detection-on-mvtec-loco-ad | f-AnoGAN | Avg. Detection AUROC: 64.2 Detection AUROC (only logical): 65.8 Detection AUROC (only structural): 62.7 Segmentation AU-sPRO (until FPR 5%): 33.4 |