
摘要
本文提出了一种模块化机器人系统,用于解决从场景的n通道图像中生成并执行未知物体对称抓取(antipodal grasps)的问题。我们提出了一种新型的生成残差卷积神经网络(Generative Residual Convolutional Neural Network, GR-ConvNet)模型,该模型能够以实时速度(约20毫秒)从n通道输入生成鲁棒的对称抓取策略。我们在标准数据集以及一系列多样化的家用物体上对所提出的模型架构进行了评估,分别在Cornell和Jacquard抓取数据集上达到了97.7%和94.6%的当前最优准确率。此外,我们还通过7自由度(7 DoF)机械臂验证了该方法的实际抓取性能,在家用物体和对抗性物体上的抓取成功率分别达到了95.4%和93%。
代码仓库
SteveHao74/shahao_GR-ConvNet
pytorch
GitHub 中提及
skumra/robotic-grasping
官方
pytorch
GitHub 中提及
qingchenkanlu/new_grasp
pytorch
GitHub 中提及
skumra/baxter-pnp
官方
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| robotic-grasping-on-cornell-grasp-dataset-1 | GR-ConvNet | 5 fold cross validation: 97.7 |
| robotic-grasping-on-jacquard-dataset | GR-ConvNet | Accuracy (%): 94.6 |