4 个月前

UDA-COPE:无监督领域适应的类别级物体姿态估计

UDA-COPE:无监督领域适应的类别级物体姿态估计

摘要

学习估计物体姿态通常需要真实标签(Ground-Truth, GT),例如CAD模型和绝对尺度的物体姿态,这些标签在现实世界中获取既昂贵又费力。为了解决这一问题,我们提出了一种用于类别级物体姿态估计的无监督域适应方法(Unsupervised Domain Adaptation, UDA),称为UDA-COPE。受近期多模态UDA技术的启发,所提出的方法利用教师-学生自监督学习方案,在不使用目标域姿态标签的情况下训练姿态估计网络。我们还引入了一种预测归一化物体坐标空间(Normalized Object Coordinate Space, NOCS)图与观测点云之间的双向过滤方法,不仅使我们的教师网络对目标域更加鲁棒,还为学生网络训练提供了更可靠的伪标签。广泛的实验结果从定量和定性两个方面证明了我们所提出方法的有效性。值得注意的是,在不依赖目标域的真实标签的情况下,我们提出的方法达到了与现有依赖真实标签的方法相当甚至有时更优的性能。

基准测试

基准方法指标
6d-pose-estimation-using-rgbd-on-real275UDA-COPE
mAP 10, 2cm: 56.9
mAP 10, 5cm: 66.0
mAP 3DIou@50: 82.6
mAP 3DIou@75: 62.5
mAP 5, 2cm: 30.4
mAP 5, 5cm: 34.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
UDA-COPE:无监督领域适应的类别级物体姿态估计 | 论文 | HyperAI超神经