
摘要
语义分割是许多视觉应用中理解场景及其内含物体的关键步骤。近年来,高光谱成像技术的进步使得该技术在驾驶场景中的应用成为可能,人们希望这些设备的感知能力能为驾驶提供比传统RGB相机更多的优势。尽管已经存在一些数据集,但目前尚缺乏一个标准基准来系统地衡量这一任务的进展并评估高光谱数据的优势。本文旨在填补这一空白,通过提供高光谱语义分割基准(HS3-Bench)来实现这一目标。该基准结合了来自三个驾驶场景数据集的注释高光谱图像,并提供了标准化的度量方法、实现方案和评估协议。我们利用该基准推导出两种强大的基线模型,在有无预训练的情况下均超越了现有各数据集上的最佳性能。此外,我们的结果表明,现有的基于学习的方法从额外的RGB训练数据中获益更多,而不是从额外的高光谱通道中获益更多。这为未来关于驾驶场景中高光谱成像用于语义分割的研究提出了重要的问题。运行基准测试和强大基线方法的代码可在 https://github.com/nickstheisen/hyperseg 获取。
代码仓库
nickstheisen/hyperseg
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| hyperspectral-semantic-segmentation-on | U-Net | Accuracy : 85.25 Average Accuracy: 48.62 Avg. F1: 48.18 Jaccard (Mean): 37.73 |
| hyperspectral-semantic-segmentation-on | DeepLabV3+ | Accuracy : 86.60 Average Accuracy: 53.15 Avg. F1: 51.83 Jaccard (Mean): 40.79 |
| hyperspectral-semantic-segmentation-on | RU-Net | Accuracy : 87.63 Average Accuracy: 54.14 Avg. F1: 53.26 Jaccard (Mean): 43.33 |
| hyperspectral-semantic-segmentation-on-hsi | DeepLabV3+ | Accuracy: 92.51 Average Accuracy: 65.58 Avg. F1: 67.86 Jaccard (Mean): 56.63 |
| hyperspectral-semantic-segmentation-on-hsi | RU-Net | Accuracy: 96.08 Average Accuracy: 79.82 Avg. F1: 82.34 Jaccard (Mean): 72.18 |
| hyperspectral-semantic-segmentation-on-hsi | U-Net | Accuracy: 94.95 Average Accuracy: 74.74 Avg. F1: 76.08 Jaccard (Mean): 64.95 |
| hyperspectral-semantic-segmentation-on-hyko2 | DeepLabV3+ | Accuracy: 84.10 Average Accuracy: 63.01 Average Jaccard: 53.22 Avg. F1: 64.90 |
| hyperspectral-semantic-segmentation-on-hyko2 | RU-Net | Accuracy: 86.72 Average Accuracy: 68.79 Average Jaccard: 58.64 Avg. F1: 69.19 |
| hyperspectral-semantic-segmentation-on-hyko2 | U-Net | Accuracy: 85.36 Average Accuracy: 68.15 Average Jaccard: 57.39 Avg. F1: 68.55 |