
摘要
我们研究了在多样化的人类视频数据上预训练的视觉表征,如何促进下游机器人操作任务的数据高效学习。具体而言,我们利用Ego4D人类视频数据集,通过时间对比学习、视频-语言对齐以及L1正则化相结合的方式,对视觉表征进行预训练,以促使表征具有稀疏性和紧凑性。由此得到的表征模型R3M可作为冻结的感知模块,用于下游策略学习。在一组12个模拟机器人操作任务中,R3M相较于从零开始训练的方法,任务成功率提升超过20%;相较于当前最先进的视觉表征模型(如CLIP和MoCo),成功率提升也超过10%。此外,R3M使Franka Emika Panda机械臂仅通过20次示范,便能在真实且杂乱的公寓环境中学会多种操作任务。代码与预训练模型已公开,可通过 https://tinyurl.com/robotr3m 获取。
代码仓库
facebookresearch/r3m
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| robot-manipulation-generalization-on-the | R3M | Average decrease average across all perturbations: -49.9 |