
摘要
我们提出了一种不确定性增强的上下文注意力网络(Uncertainty Augmented Context Attention Network, UACANet),用于结肠息肉分割,并特别考虑了显著图中的不确定区域。该方法构建了一个改进的U-Net结构,引入了额外的编码器与解码器模块,并在每一层自下而上的预测模块中生成显著图,随后将其传递至下一预测模块。在每个预测模块中,利用先前预测得到的显著图,进一步生成前景、背景和不确定区域三类掩码图,并将特征图与这三类区域图进行融合,以获得每种表示的增强特征。随后,计算每一表示与特征图中每个像素之间的关联关系。我们在五个主流的息肉分割基准数据集(Kvasir、CVC-ClinicDB、ETIS、CVC-ColonDB 和 CVC-300)上进行了实验,取得了当前最优的性能表现。尤其在ETIS数据集上,平均Dice系数达到76.6%,相较于此前最优方法提升了13.8%。项目源代码已公开,可访问 https://github.com/plemeri/UACANet 获取。
代码仓库
plemeri/UACANet
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| medical-image-segmentation-on-cvc-clinicdb | UACANet-S | mean Dice: 0.916 |
| medical-image-segmentation-on-cvc-clinicdb | UACANet-L | mean Dice: 0.926 |
| medical-image-segmentation-on-cvc-colondb | UACANet-S | Average MAE: 0.034 S-Measure: 0.848 mIoU: 0.704 max E-Measure: 0.897 mean Dice: 0.783 |
| medical-image-segmentation-on-cvc-colondb | UACANet-L | Average MAE: 0.039 S-Measure: 0.835 mIoU: 0.678 max E-Measure: 0.878 mean Dice: 0.751 |
| medical-image-segmentation-on-etis | UACANet-L | Average MAE: 0.012 S-Measure: 0.859 mIoU: 0.689 max E-Measure: 0.905 mean Dice: 0.766 |
| medical-image-segmentation-on-etis | UACANet-S | Average MAE: 0.023 S-Measure: 0.815 mIoU: 0.615 max E-Measure: 0.851 mean Dice: 0.694 |
| medical-image-segmentation-on-kvasir-seg | UACANet-S | Average MAE: 0.026 S-Measure: 0.914 mIoU: 0.852 max E-Measure: 0.951 mean Dice: 0.905 |
| medical-image-segmentation-on-kvasir-seg | UACANet-L | Average MAE: 0.025 S-Measure: 0.917 mIoU: 0.862 max E-Measure: 0.958 mean Dice: 0.912 |