4 个月前

通过密集互注意力进行手-物体姿态估计

通过密集互注意力进行手-物体姿态估计

摘要

三维手-物体姿态估计是许多计算机视觉应用成功的关键。该任务的主要目标是有效建模手与物体之间的相互作用。为此,现有的方法要么依赖于计算成本高昂的迭代优化中的交互约束,要么仅考虑采样手部和物体关键点之间的稀疏相关性。相比之下,我们提出了一种新颖的密集互注意力机制,能够建模手与物体之间细粒度的依赖关系。具体而言,我们首先根据它们的网格结构构建手部和物体图。对于每个手节点,我们通过学习到的注意力机制从每个物体节点聚合特征,反之亦然,对于每个物体节点也是如此。得益于这种密集互注意力机制,我们的方法能够在保持物理合理性的同时生成高质量的姿态,并且具有实时推理速度。在大型基准数据集上的大量定量和定性实验表明,我们的方法优于现有最先进方法。代码可在 https://github.com/rongakowang/DenseMutualAttention.git 获取。

代码仓库

rongakowang/densemutualattention
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
3d-hand-pose-estimation-on-ho-3dDMA
PA-MPJPE (mm): 10.1
hand-object-pose-on-dexycbDMA
ADD-S: 15.9
Average MPJPE (mm): 12.7
MCE: 32.6
OCE: 27.3
Procrustes-Aligned MPJPE: 6.86
hand-object-pose-on-ho-3dDMA
ADD-S: 20.8
Average MPJPE (mm): 22.2
OME: 45.5
PA-MPJPE: 10.1
ST-MPJPE: 23.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
通过密集互注意力进行手-物体姿态估计 | 论文 | HyperAI超神经