4 个月前

结构感知的人类动作生成

结构感知的人类动作生成

摘要

生成长距离基于骨架的人类动作一直是一个具有挑战性的问题,因为某一帧的微小偏差可能会导致整个动作序列失真。现有的大多数方法借鉴了视频生成的思想,简单地将骨架节点/关节视为图像中的像素,而没有考虑丰富的帧间和帧内结构信息,这可能导致潜在的动作扭曲。图卷积网络(Graph Convolutional Networks, GCNs)是一种有前景的方法,可以利用结构信息来学习结构表示。然而,直接将GCNs应用于时空连续的动作序列中仍然存在挑战,因为动作图可能非常庞大。为了解决这一问题,我们提出了一种GCNs的变体,通过强大的自注意力机制在时间空间中自适应地稀疏化完整的动作图。我们的方法能够动态关注重要的历史帧,并构建一个稀疏图以应用于GCN框架中,从而有效地捕捉动作序列中的结构信息。大量的实验结果表明,与现有方法相比,我们的方法在这两个标准的人类动作数据集上表现出显著的优势。

代码仓库

PingYu-iris/SA-GCN
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
human-action-generation-on-human3-6mSA-GCN
MMDa: 0.146
MMDs: 0.134
human-action-generation-on-ntu-rgb-d-2dSA-GCN
MMDa (CS): 0.285
MMDa (CV): 0.316
MMDs (CS): 0.299
MMDs (CV): 0.335

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
结构感知的人类动作生成 | 论文 | HyperAI超神经