3 个月前

互学习以适应联合人体解析与姿态估计

互学习以适应联合人体解析与姿态估计

摘要

本文提出了一种新型的互学习自适应模型(Mutual Learning to Adapt, MuLA),用于联合人体解析与姿态估计任务。该模型能够有效挖掘两项任务之间的相互促进作用,同步提升两者的性能表现。与现有基于后处理或传统多任务学习的方法不同,MuLA通过递归地利用并行任务之间的引导信息,动态预测任务特定的模型参数。这一机制使MuLA能够快速适应人体解析与姿态估计模型,通过融合彼此的特征信息,生成更具表达能力的表征,从而获得更加鲁棒且精确的输出结果。MuLA基于卷积神经网络构建,支持端到端训练。在LIP和扩展的PASCAL-Person-Part两个基准数据集上的大量实验表明,所提出的MuLA模型在性能上显著优于现有的主流基线方法,充分验证了其有效性与优越性。

基准测试

基准方法指标
semantic-segmentation-on-lip-valMuLA (ResNet-101)
mIoU: 49.30%

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
互学习以适应联合人体解析与姿态估计 | 论文 | HyperAI超神经