
摘要
一个自动化的机器人系统在整体上需要具备尽可能强的鲁棒性与故障安全特性,同时保持较高的精度和重复性。尽管基于深度学习的方法正逐渐成为处理三维扫描与图像处理任务的研究主流,但目前工业界处理此类数据的标准仍以解析方法为主。本文指出,解析方法在鲁棒性方面表现较弱,且在测试、更新与维护方面更为困难。本文聚焦于一个具体任务:基于三维扫描数据的6D工件位姿估计。为此,我们构建了一个高质量的数据集,包含合成数据与由结构光扫描仪获取的真实扫描数据,并配有精确的标注。此外,本文提出了两种不同的6D工件位姿估计方法:一种是作为工业标准的解析方法,另一种是作为基准的数据驱动方法。两种方法均进行了交叉评估,实验结果表明,将真实扫描数据与合成数据相结合进行训练,能够有效提升所提出的基于数据驱动的神经网络模型的性能。本文为一篇立场性初步研究论文,所提出的方法目前仅在相对较小的初始数据集上进行训练与评估,我们计划在未来进一步扩展该数据集。
代码仓库
gajdosech2/bin-detect
官方
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| 6d-pose-estimation-on-3d-bsls-6d | VISAPP Baseline | eRE: 0.197 eTE: 3.469 |