3 个月前

ACDNet:用于单目全景深度估计的自适应融合空洞卷积

ACDNet:用于单目全景深度估计的自适应融合空洞卷积

摘要

近年来,深度估计是基于全景图像进行三维重建的关键步骤。全景图像能够保留完整的空间信息,但采用等距柱状投影(equirectangular projection)时会引入显著的几何畸变。本文提出一种基于自适应融合空洞卷积(ACDNet)的深度估计方法,用于预测单目全景图像的稠密深度图。具体而言,我们通过组合不同空洞率的卷积核,扩展了在等距柱状投影下的感受野。同时,引入一种自适应通道融合模块,以整合特征图,并在通道维度上捕获具有多样性的关注区域。由于该模块在构建过程中引入了通道级注意力机制,网络能够高效地捕捉并利用跨通道的上下文信息。最后,我们在三个数据集(涵盖虚拟与真实场景)上进行了深度估计实验,结果表明,所提出的ACDNet显著优于当前最先进的方法(SOTA)。相关代码与模型参数已开源,获取地址为:https://github.com/zcq15/ACDNet。

代码仓库

zcq15/acdnet
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
depth-estimation-on-stanford2d3d-panoramicACDNet
RMSE: 0.341
absolute relative error: 0.0984

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
ACDNet:用于单目全景深度估计的自适应融合空洞卷积 | 论文 | HyperAI超神经