
摘要
本文介绍了一种创新的多任务学习框架,该框架允许使用单个摄像头同时进行深度估计和语义分割。所提出的方法基于共享的编码器-解码器架构,集成了多种技术以提高深度估计和语义分割任务的准确性,而不牺牲计算效率。此外,论文引入了对抗训练组件,采用了Wasserstein生成对抗网络(WGAN)框架及其判别网络来优化模型的预测结果。该框架在两个数据集上进行了全面评估——室外Cityscapes数据集和室内NYU Depth V2数据集——并在分割和深度估计任务中均超过了现有的最先进方法。我们还进行了消融研究,分析了不同组件的贡献,包括预训练策略、判别网络的引入、对数深度缩放以及高级图像增强技术,以便更好地理解所提出的框架。相关源代码可在以下网址获取:https://github.com/PardisTaghavi/SwinMTL。
代码仓库
pardistaghavi/swinmtl
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| depth-estimation-on-cityscapes-test | SwinMTL | RMSE: 6.352 |
| monocular-depth-estimation-on-cityscapes | SwinMTL | Absolute relative error (AbsRel): 0.089 RMSE: 5.481 RMSE log: 0.139 Square relative error (SqRel): 1.051 |
| multi-task-learning-on-cityscapes | SwinMTL | RMSE: 0.51 mIoU: 76.41 |
| multi-task-learning-on-nyuv2 | SwinMTL | Mean IoU: 58.14 |
| real-time-semantic-segmentation-on-cityscapes | SwinMTL | mIoU: 76.41% |
| semantic-segmentation-on-cityscapes | SwinMTL | Mean IoU (class): 76.41% |
| semantic-segmentation-on-cityscapes-val | SwinMTL | mIoU: 76.41 |
| semantic-segmentation-on-nyu-depth-v2 | SwinMTL | Mean IoU: 58.14% |