
摘要
视觉Transformer(Vision Transformers, ViT)在自监督学习中展现出优异性能,能够有效学习全局与局部表征,并可迁移至下游应用任务。受此启发,我们提出一种面向医学图像分析的新型自监督学习框架,设计了专用于该领域的代理任务。具体而言,本文提出:(i)一种基于3D Transformer的新型模型——Swin UNETR(Swin UNEt TRansformers),其采用分层编码器结构,用于自监督预训练;(ii)针对人体解剖结构内在规律设计的定制化代理任务。我们在5,050张来自不同人体器官的公开可用计算机断层扫描(CT)图像上成功实现了该模型的预训练。通过在“颅骨以外”(Beyond the Cranial Vault, BTCV)分割挑战赛(涵盖13个腹部器官)以及医学分割十项全能(Medical Segmentation Decathlon, MSD)数据集的分割任务上对预训练模型进行微调,验证了本方法的有效性。目前,该模型在MSD与BTCV两个数据集的公开测试排行榜上均位列第一,处于当前最先进水平。代码地址:https://monai.io/research/swin-unetr
代码仓库
jusiro/fewshot-finetuning
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| medical-image-segmentation-on-medical | Swin UNETR | Dice (Average): 78.68 NSD: 89.28 |