摘要
车辆重识别(re-id)面临的一个基本挑战是如何在不同摄像头视角下,面对车辆类别内部显著的外观差异,学习到鲁棒且具有区分性的视觉表征。由于现有的车辆数据集在训练图像数量和视角覆盖范围方面均存在局限,我们提出通过整合四个公开的车辆数据集,构建一个独特的大规模车辆数据集(称为 VehicleNet),并设计一种新颖而有效的两阶段渐进式方法,从 VehicleNet 中学习更具鲁棒性的视觉表征。我们方法的第一阶段通过传统的分类损失,在所有源域(即原始车辆数据集)上学习通用的表征,该阶段不依赖目标域信息,因此放宽了训练域与测试域之间的完全对齐要求。第二阶段则仅基于目标车辆数据集对预训练模型进行微调,通过最小化 VehicleNet 与任意目标域之间的分布差异,进一步提升模型的泛化能力。本文详细阐述了所提出的多源数据集 VehicleNet,并通过大量实验验证了两阶段渐进式表征学习方法的有效性。我们在 AICity Challenge 的私有测试集上取得了 86.07% 的 mAP(平均精度均值)的当前最优性能,在另外两个公开的车辆重识别数据集 VeRi-776 和 VehicleID 上也取得了具有竞争力的结果。我们期望这一新的 VehicleNet 数据集以及所学习到的鲁棒表征,能够为真实场景下的车辆重识别研究提供有力支持,推动该技术在实际应用中的发展。
代码仓库
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| vehicle-re-identification-on-vehicleid | VehicleNet | Rank1: 83.64 |
| vehicle-re-identification-on-veri-776 | VehicleNet | Rank1: 96.78 mAP: 83.41 |