4 个月前

A2J:从单张深度图像进行3D关节姿态估计的锚点到关节回归网络

A2J:从单张深度图像进行3D关节姿态估计的锚点到关节回归网络

摘要

针对深度图像中的三维手部和身体姿态估计任务,提出了一种基于锚点的新方法——Anchor-to-Joint回归网络(A2J),该网络具有端到端的学习能力。在A2J中,锚点密集地设置在深度图像上,作为关节的局部回归器,能够捕捉全局-局部的空间上下文信息。这些锚点以集成的方式预测关节的位置,从而增强模型的泛化能力。所提出的三维姿态估计范式与现有的基于编码器-解码器的全卷积网络(FCN)、3D卷积神经网络(3D CNN)和基于点集的方法有所不同。为了发现对特定关节有信息量的锚点,还提出了A2J的锚点生成过程。同时,使用2D卷积神经网络(即ResNet-50)作为骨干网络来驱动A2J,而无需使用耗时的3D卷积或反卷积层。实验结果表明,在三个手部数据集和两个身体数据集上,A2J表现出优越性。此外,A2J在单个NVIDIA 1080Ti GPU上的运行速度约为100帧每秒(FPS)。

代码仓库

bo-zhang-cs/CACNet-Pytorch
pytorch
GitHub 中提及
zhangboshen/A2J
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
3d-pose-estimation-on-k2hpdA2J
FPS: 93.78
depth-estimation-on-nyu-depth-v2A2J
mAP: 8.61
hand-pose-estimation-on-hands-2017A2J
Average 3D Error: 8.57
hand-pose-estimation-on-icvl-handsA2J
Average 3D Error: 6.461
FPS: 105.06
hand-pose-estimation-on-k2hpdA2J
PDJ@5mm: 76.3
hand-pose-estimation-on-nyu-handsA2J
Average 3D Error: 8.61
FPS: 105.06
pose-estimation-on-itop-front-viewA2J
Mean mAP: 88.0

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
A2J:从单张深度图像进行3D关节姿态估计的锚点到关节回归网络 | 论文 | HyperAI超神经