
摘要
在医疗领域,高效实现息肉分割对于早期诊断结直肠癌具有至关重要的作用。然而,息肉分割面临诸多挑战,包括背景分布复杂、息肉尺寸与形状差异显著以及边界模糊等问题,导致准确区分前景(即息肉本身)与背景(周围组织)尤为困难。为应对上述挑战,本文提出一种专为结肠镜图像中息肉分割设计的多尺度边缘引导注意力网络(Multi-Scale Edge-Guided Attention Network, MEGANet)。该网络灵感来源于经典边缘检测技术与注意力机制的融合。通过结合二者优势,MEGANet能够有效保留高频信息,尤其是边缘与边界特征,这些特征在深层神经网络中往往因特征提取过程而逐渐退化。MEGANet采用端到端架构,包含三个核心模块:编码器负责从输入图像中捕获并抽象特征;解码器专注于增强显著特征;以及边缘引导注意力模块(Edge-Guided Attention, EGA),该模块利用拉普拉斯算子(Laplacian Operator)强化息肉的边界响应。在五个基准数据集上开展的大量定性与定量实验表明,MEGANet在六项评估指标下均优于现有主流先进方法(SOTA)。相关代码已开源,可访问 https://github.com/UARK-AICV/MEGANet。
代码仓库
dinhhieuhoang/meganet
官方
pytorch
GitHub 中提及
uark-aicv/meganet
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| medical-image-segmentation-on-cvc-clinicdb | MEGANet(Res2Net-50) | Average MAE: 0.006 mIoU: 0.894 mean Dice: 0.938 |
| medical-image-segmentation-on-cvc-clinicdb | MEGANet(ResNet-34) | Average MAE: 0.008 mIoU: 0.885 mean Dice: 0.93 |
| medical-image-segmentation-on-etis | MEGANet(ResNet-34) | mIoU: 0.709 mean Dice: 0.789 |
| medical-image-segmentation-on-etis | MEGANet(Res2Net-50) | mIoU: 0.665 mean Dice: 0.739 |
| medical-image-segmentation-on-kvasir-seg | MEGANet(ResNet-34) | Average MAE: 0.026 mIoU: 0.859 mean Dice: 0.911 |
| medical-image-segmentation-on-kvasir-seg | MEGANet(Res2Net-50) | Average MAE: 0.025 mIoU: 0.863 mean Dice: 0.913 |