4 个月前

移动设备上的实时立体图像深度估计

移动设备上的实时立体图像深度估计

摘要

在机器人领域的许多立体深度估计应用中,需要在显著的计算限制下实时生成精确的视差图。目前最先进的算法迫使人们在生成高精度但速度较慢的地图和快速生成低精度的地图之间做出选择,此外,这些方法通常需要过多的参数才能在功耗或内存受限的设备上使用。鉴于这些不足,我们提出了一种新的适用于任意时间设置的视差预测方法。与以往的工作不同,我们的端到端学习方法可以在推理时权衡计算量和准确性。深度估计是在多个阶段进行的,在此过程中可以随时查询模型以输出其当前的最佳估计值。我们的最终模型能够在NVIDIA Jetson TX2模块上以10-35帧每秒(FPS)的速度处理1242×375分辨率的图像,且误差仅略有增加——使用的参数比最具竞争力的基线少两个数量级。源代码可在https://github.com/mileyan/AnyNet 获取。

代码仓库

mamoanwar97/Anynet_modified
pytorch
GitHub 中提及
rajeevpatwari/anynet
pytorch
GitHub 中提及
mileyan/AnyNet
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
stereo-depth-estimation-on-kitti2012AnyNet
three pixel error: 6.1
stereo-depth-estimation-on-kitti2015AnyNet
three pixel error: 6.2

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
移动设备上的实时立体图像深度估计 | 论文 | HyperAI超神经