3 个月前

PE-Former:姿态估计Transformer

PE-Former:姿态估计Transformer

摘要

视觉Transformer架构在图像分类任务中已被证明具有极高的有效性。然而,当前针对更具挑战性的视觉任务所采用的Transformer方法,仍依赖于卷积神经网络(CNN)作为特征提取的主干网络。本文研究了完全基于Transformer架构(即不包含任何CNN主干网络)在二维人体姿态估计任务中的应用。我们在COCO数据集上评估了两种ViT(Vision Transformer)架构,实验结果表明,采用编码器-解码器结构的Transformer模型能够在该任务上达到当前最优的性能水平。

代码仓库

padeler/pe-former
官方
pytorch

基准测试

基准方法指标
pose-estimation-on-cocoPEFORMER-Xcit-dino-p8
AP: 72.6
AR: 79.4

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
PE-Former:姿态估计Transformer | 论文 | HyperAI超神经