4 个月前

ClickDiff:通过扩散模型点击生成可控抓取的语义接触图

ClickDiff:通过扩散模型点击生成可控抓取的语义接触图

摘要

抓取生成的目标是创建指定物体与手之间的复杂交互。尽管传统的手部生成方法主要关注在场景约束下的可见性和多样性,但它们往往忽略了细粒度的手-物接触等交互细节,导致生成的抓取动作不准确且不符合预期。为了解决这些挑战,我们提出了一种可控的抓取生成任务,并引入了ClickDiff,这是一种利用细粒度语义接触图(SCM)的可控条件生成模型。特别是在合成互动抓取时,该方法可以通过用户指定或算法预测的语义接触图实现对抓取合成的精确控制。具体而言,为了最优地利用接触监督约束并准确建模手部复杂的物理结构,我们提出了一种双生成框架。在此框架内,语义条件模块根据细粒度接触信息生成合理的接触图,而接触条件模块则结合接触图和物体点云生成逼真的抓取动作。我们评估了适用于可控抓取生成的评价标准。通过在GRAB和ARCTIC数据集上进行单手和双手生成实验,验证了我们所提方法的有效性,展示了ClickDiff即使面对之前未见过的物体也能表现出高效性和鲁棒性。我们的代码可在以下地址获取:https://github.com/adventurer-w/ClickDiff。

基准测试

基准方法指标
controllable-grasp-generation-on-grabClickDiff
Average MPJPE (mm): 40.57

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
ClickDiff:通过扩散模型点击生成可控抓取的语义接触图 | 论文 | HyperAI超神经