
摘要
在现有的基于学习的多视图立体视觉方法中,深度估计通常被建模为回归或分类问题。尽管这两种表示形式近期均展现出优异的性能,但仍存在明显不足:回归方法由于依赖间接的代价体学习机制,容易发生过拟合;而分类方法则因采用离散预测,无法直接获得精确的亚像素级深度值。为此,本文提出一种新型表示方法——统一表示(Unification),旨在融合回归与分类方法的优势。该方法既能像分类方法一样直接对代价体施加约束,又可实现类似回归方法的亚像素级深度预测能力。为进一步挖掘统一表示的潜力,我们设计了一种新型损失函数——统一焦点损失(Unified Focal Loss),该损失函数在处理样本不平衡问题时更具均匀性与合理性。结合上述两个无负担的模块,本文提出一种自粗到精的框架,命名为 UniMVSNet。在DTU与Tanks and Temples两个基准测试中均取得第一名的成绩,验证了所提模型不仅性能最优,且具备出色的泛化能力。
代码仓库
prstrive/unimvsnet
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 3d-reconstruction-on-dtu | UniMVSNet | Acc: 0.352 Comp: 0.278 Overall: 0.315 |