3 个月前

R3M:一种通用的机器人操作视觉表征

R3M:一种通用的机器人操作视觉表征

摘要

我们研究了在多样化的人类视频数据上预训练的视觉表征,如何促进下游机器人操作任务的数据高效学习。具体而言,我们利用Ego4D人类视频数据集,通过时间对比学习、视频-语言对齐以及L1正则化相结合的方式,对视觉表征进行预训练,以促使表征具有稀疏性和紧凑性。由此得到的表征模型R3M可作为冻结的感知模块,用于下游策略学习。在一组12个模拟机器人操作任务中,R3M相较于从零开始训练的方法,任务成功率提升超过20%;相较于当前最先进的视觉表征模型(如CLIP和MoCo),成功率提升也超过10%。此外,R3M使Franka Emika Panda机械臂仅通过20次示范,便能在真实且杂乱的公寓环境中学会多种操作任务。代码与预训练模型已公开,可通过 https://tinyurl.com/robotr3m 获取。

代码仓库

facebookresearch/r3m
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
robot-manipulation-generalization-on-theR3M
Average decrease average across all perturbations: -49.9

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
R3M:一种通用的机器人操作视觉表征 | 论文 | HyperAI超神经