3 个月前

MuTr:用于从全场景深度图像中进行手部姿态估计的多阶段Transformer

MuTr:用于从全场景深度图像中进行手部姿态估计的多阶段Transformer

摘要

本文提出了一种基于Transformer的新型手部姿态估计方法——DePOTR。我们在四个基准数据集上对DePOTR方法进行了测试,结果表明,DePOTR在性能上优于其他基于Transformer的方法,同时达到了与当前最先进方法相当的水平。为进一步验证DePOTR的优越性,我们提出了一种新颖的多阶段方法——MuTr,该方法直接从全场景深度图像中进行手部姿态估计。MuTr消除了手部姿态估计流程中对两个独立模型的依赖(一个用于手部定位,另一个用于姿态估计),同时仍能保持优异的性能表现。据我们所知,这是首个在标准设置与全场景图像设置下均成功采用相同模型架构,并在两种场景中均取得具有竞争力结果的尝试。在NYU数据集上,DePOTR与MuTr的估计精度分别达到7.85 mm和8.71 mm。

基准测试

基准方法指标
hand-pose-estimation-on-icvl-handsDePOTR
Average 3D Error: 5.98
hand-pose-estimation-on-nyu-handsDePOTR
Average 3D Error: 7.85
hand-pose-estimation-on-nyu-handsMuTr - Full-Scene Image
Average 3D Error: 8.71

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供