
摘要
医学图像分割是医学信息分析领域中最基础的任务之一。迄今为止,已提出多种解决方案,包括多种基于深度学习的技术,如U-Net、FC-DenseNet等。然而,由于医学图像固有的放大效应和几何畸变,以及病灶区域与正常组织密度相似所带来的挑战,实现高精度的医学图像分割仍是一项极具难度的任务。本文提出了一种名为TFCNs(Transformers for Fully Convolutional denseNets)的新方法,通过在FC-DenseNet中引入ResLinear-Transformer(RL-Transformer)和卷积线性注意力模块(Convolutional Linear Attention Block, CLAB),以应对上述挑战。TFCNs不仅能够从CT图像中挖掘更多潜在特征信息,提升特征提取能力,还能通过CLAB模块更有效地捕捉与传播语义特征,同时抑制非语义特征的干扰。实验结果表明,TFCNs在Synapse数据集上取得了当前最优的分割性能,Dice分数达到83.72%。此外,我们在公开的COVID-19数据集上评估了TFCNs对病灶区域变化的鲁棒性。相关Python代码将公开发布于https://github.com/HUANGLIZI/TFCNs。
代码仓库
huanglizi/tfcns
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| semantic-segmentation-on-acdc-scribbles | TFCNs | Dice (Average): 64.5% |