
摘要
人体解析正受到越来越多的研究关注。本文旨在通过引入野外多人体解析这一新问题,推动人体解析技术的前沿发展。现有的人体解析研究主要聚焦于单人场景,这与现实应用中多人同时存在、相互交互且存在遮挡的复杂情况相偏离。为解决多人体解析问题,我们提出一个全新的多人体解析(Multi-Human Parsing, MHP)数据集,以及一种名为 MH-Parser 的新型多人体解析模型。MHP 数据集包含在真实场景中采集的多个人体图像,并在实例感知(instance-aware)的设定下提供像素级细粒度的语义标注。MH-Parser 模型通过引入一种新型的图生成对抗网络(Graph-GAN)模型,以自底向上的方式同时生成全局解析图与人体实例掩码。我们预期,MHP 数据集将成为推动新型多人体解析模型发展的宝贵数据资源,而 MH-Parser 则为野外多人体解析的后续研究提供了强有力的基准模型。
代码仓库
ZhaoJ9014/Multi-Human-Parsing_MHP
tf
GitHub 中提及
ZhaoJ9014/Multi-Human-Parsing
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| multi-human-parsing-on-mhp-v10 | MH-Parser | AP 0.5: 50.10% |
| multi-human-parsing-on-mhp-v20 | MH-Parser | AP 0.5: 17.99% |