
摘要
近日,大规模合成数据集在可泛化的人体再识别任务中展现出极大的价值。然而,现有数据集中合成的人物大多呈现卡通风格且穿着搭配随机,这限制了它们的性能。为了解决这一问题,本研究提出了一种自动方法,直接从现实世界的人体图像中克隆整套服装到虚拟3D角色上,从而使生成的任何虚拟人物都与其现实世界的原型非常相似。具体而言,基于UV纹理映射技术,设计了两种克隆方法:注册衣物映射(registered clothes mapping)和均质衣物扩展(homogeneous cloth expansion)。通过检测人体图像上的衣物关键点并将其标记在具有清晰衣物结构的标准UV图上,注册映射利用透视单应性变换将现实世界的衣物变形到UV图上的对应位置。对于不可见的衣物部分和不规则的UV图,均质扩展则将衣物上的一个均质区域作为真实的布料图案或单元,并扩展该单元以填充UV图。此外,本研究还提出了一种相似度-多样性扩展策略,通过对人体图像进行聚类、按簇采样图像并克隆服装来生成3D角色。这样可以在视觉相似性方面密集地扩大虚拟人物的数量以挑战模型学习,并在人口多样性方面丰富样本分布。最终,通过在Unity3D场景中渲染这些克隆的角色,创建了一个更加逼真的虚拟数据集——ClonedPerson,包含5,621个身份和887,766张图像。实验结果表明,在ClonedPerson上训练的模型具有更好的泛化性能,优于其他流行的现实世界和合成人体再识别数据集上训练的模型。ClonedPerson项目可在以下网址获取:https://github.com/Yanan-Wang-cs/ClonedPerson。
代码仓库
yanan-wang-cs/clonedperson
官方
pytorch
GitHub 中提及
shengcailiao/QAConv
pytorch
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| generalizable-person-re-identification-on-19 | QAConv-GS | MSMT17-u003eRank-1: 39.8 MSMT17-u003emAP: 6.3 Market-1501-u003eRank-1: 40.3 Market-1501-u003emAP: 5.9 RandPerson-u003eRank-1: 65.3 RandPerson-u003emAP: 19.9 |
| person-re-identification-on-clonedperson | QAConv-GS | Rank-1: 91.1 mAP: 68.9 |
| unsupervised-domain-adaptation-on | SpCL | CUHK03-NP-u003eRank-1: 11.5 CUHK03-NP-u003emAP: 1.0 MSMT17-u003eRank-1: 10.2 MSMT17-u003emAP: 0.9 Market-1501-u003eRank-1: 12.0 Market-1501-u003emAP: 1.1 |
| unsupervised-person-re-identification-on-13 | SpCL | Rank-1: 10.6 mAP: 0.9 |