
摘要
我们提出了一种结合亲和力预测与区域聚合的方法,该方法在从电子显微镜(EM)图像中进行神经元分割的准确性和可扩展性方面显著优于现有技术。我们的方法包括一个经过训练以预测体素之间亲和力的3D U-Net,随后进行迭代区域聚合。我们使用基于MALIS的结构损失函数进行训练,鼓励通过亲和力阈值化获得拓扑正确的分割结果。我们的扩展方法包含两个部分:首先,我们提出了一种准线性的损失梯度计算方法,改进了原有的二次算法;其次,我们在两个独立的阶段计算梯度,以避免在早期训练阶段出现错误的梯度贡献。我们的预测结果足够准确,以至于简单的基于百分位数的无学习聚合方法就能超越之前用于较低质量预测的更复杂方法。我们在三个不同的电子显微镜数据集上展示了实验结果,相对于先前的结果分别实现了27%、15%和250%的相对提升。我们的研究发现表明,单一方法可以应用于几乎各向同性的块面电子显微镜数据和各向异性的连续切片电子显微镜数据。我们的方法运行时间随体积大小线性增长,并且每百万体素大约需要2.6秒的时间,这使得我们的方法适用于非常大规模的数据集处理。
代码仓库
funkey/mala
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| brain-image-segmentation-on-cremi | U-NET MALA | CREMI Score: 0.289 VOI: 0.606 |
| brain-image-segmentation-on-fib-25-synaptic | U-NET MALA | VOI: 2.151 |
| brain-image-segmentation-on-fib-25-whole-test | U-NET MALA | VOI: 1.071 |
| brain-image-segmentation-on-segem | U-NET MALA | IED: 4.839 |