MoghaddamAlireza Sedighi ; AnvariFatemeh ; HaghighiMohammadjavad Mirshekari ; FakhariMohammadali ; MohammadiMohammad Reza

摘要
人员重识别(ReID)是计算机视觉中的一个基本任务,在监控和安全领域具有重要的应用。尽管近年来取得了进展,但大多数现有的ReID模型在不同文化背景下往往难以泛化,特别是在伊朗等伊斯兰地区,那里普遍穿着保守的服装。现有的数据集主要包含西方和东亚的时尚风格,限制了其在这些环境中的适用性。为了解决这一问题,我们引入了伊朗科技大学人员重识别数据集(IUST_PersonReId),该数据集旨在反映在新的文化环境中进行ReID的独特挑战,特别强调保守着装和来自伊朗的多样化场景,包括市场、校园和清真寺。我们在IUST_PersonReId上使用最先进的模型进行了实验,如语义可控自监督学习(SOLIDER)和对比语言-图像预训练重识别(CLIP-ReID)。实验结果表明,与Market1501和多场景多时段(MSMT17)等基准数据集相比,这些模型的性能显著下降。具体而言,SOLIDER在Market1501上的平均精度均值(mAP)下降了50.75%,在MSMT17上下降了23.01%;而CLIP-ReID则分别下降了38.09%和21.74%的mAP。这突显了遮挡和有限的区分特征所带来的挑战。基于序列的评估显示,通过利用时间上下文可以提高性能,强调了该数据集在推进文化敏感且鲁棒的ReID系统方面的潜力。IUST_PersonReId为全球范围内解决ReID研究中的公平性和偏见问题提供了关键资源。
代码仓库
ComputerVisionIUST/IUST_PersonReId
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| person-re-identification-on-iust-personreid | Solider | Rank-1: 51.08 Rank-10: 70.76 Rank-5: 65.32 mAP: 42.35 |
| person-re-identification-on-iust-personreid | CLIP-ReID | Rank-1: 61.40 Rank-10: 77.50 Rank-5: 72.50 mAP: 51.60 |