
摘要
学习有效的图像表示之间的相似度度量是近期视觉搜索任务(如验证或零样本学习)取得进展的关键。尽管度量学习部分已经得到了充分的研究,但这种度量通常是在提取的深度特征的平均值上计算的。然后,该表示被训练以具有区分性。然而,这些深度特征往往在特征空间中分布较为分散。因此,表示对异常值、物体遮挡、背景变化等不够鲁棒。本文中,我们通过一种称为HORDE的分布感知正则化方法来解决这一分散问题。该正则化方法强制视觉上相近的图像在特征空间中具有相同且定位良好的深度特征分布。我们提供了支持这一正则化效应的理论分析,并通过在4个知名数据集(Cub-200-2011、Cars-196、Stanford Online Products和Inshop Clothes Retrieval)上获得最先进结果来证明我们方法的有效性。
代码仓库
pierre-jacob/ICCV2019-Horde
官方
tf
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| metric-learning-on-cars196 | ABE + HORDE | R@1: 88.0 |
| metric-learning-on-cub-200-2011 | ABE + HORDE | R@1: 66.8 |