3 个月前

用于医学图像分割的多尺度分层视觉Transformer与级联注意力解码

用于医学图像分割的多尺度分层视觉Transformer与级联注意力解码

摘要

Transformer 在医学图像分割任务中已展现出卓越的性能。然而,由于其底层采用单尺度自注意力(Self-Attention, SA)机制,Transformer 在泛化能力方面可能存在局限性。为此,本文提出一种多尺度层次化视觉Transformer(Multi-scale hiERarchical vIsion Transformer, MERIT)主干网络,通过在多尺度上计算自注意力机制,显著提升了模型的泛化能力。此外,我们引入了一种基于注意力的解码器结构——级联注意力解码(Cascaded Attention Decoding, CASCADE),用于对MERIT生成的多阶段特征进行进一步优化与细化。最后,我们提出一种高效的多阶段特征混合损失聚合方法——MUTATION,通过隐式集成(implicit ensembling)的方式实现更优的模型训练。在两个广泛使用的医学图像分割基准数据集(Synapse多器官数据集、ACDC心脏分割数据集)上的实验结果表明,MERIT在性能上优于当前主流方法。所提出的MERIT架构与MUTATION损失聚合策略可广泛应用于下游的医学图像分割及语义分割任务。

代码仓库

SLDGroup/MERIT
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
medical-image-segmentation-on-automaticMERIT
Avg DSC: 92.32
medical-image-segmentation-on-miccai-2015-1MERIT
Avg DSC: 84.90
Avg HD: 13.22
medical-image-segmentation-on-synapse-multiMERIT
Avg DSC: 84.90
Avg HD: 13.22

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
用于医学图像分割的多尺度分层视觉Transformer与级联注意力解码 | 论文 | HyperAI超神经