
摘要
我们研究了距离度量学习(Distance Metric Learning, DML)问题,其目标是学习图像之间的有效相似性度量。本文重新审视了ProxyNCA方法,并引入多项改进。我们发现,低温度缩放(low temperature scaling)是影响性能的关键组件,并阐明了其有效的原因。此外,我们还发现,在大多数情况下,全局最大池化(Global Max Pooling)的性能优于全局平均池化(Global Average Pooling)。同时,我们提出的快速移动代理(fast moving proxies)机制有效缓解了代理向量梯度过小的问题,且该组件与低温度缩放和全局最大池化具有良好的协同效应。基于上述改进,我们提出的增强模型——ProxyNCA++,在四个不同的零样本图像检索数据集上,Recall@1的平均性能相比原始ProxyNCA算法提升了22.9个百分点。此外,我们在CUB200、Cars196、Sop和InShop数据集上均取得了当前最优(state-of-the-art)的性能,对应的Recall@1得分分别为72.2、90.1、81.4和90.9。
代码仓库
euwern/proxynca_pp
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| image-retrieval-on-cars196 | ProxyNCA++ | R@1: 90.1 |
| image-retrieval-on-cub-200-2011 | ProxyNCA++ | R@1: 72.2 |
| image-retrieval-on-in-shop | ProxyNCA++ | R@1: 90.9 |
| image-retrieval-on-sop | ProxyNCA++ | R@1: 81.4 |
| metric-learning-on-cars196 | ResNet-50 + ProxyNCA++ | R@1: 86.5 |
| metric-learning-on-cub-200-2011 | ResNet-50 + ProxyNCA++ | R@1: 69.0 |
| metric-learning-on-in-shop-1 | ResNet-50 + ProxyNCA++ | R@1: 90.9 |
| metric-learning-on-stanford-online-products-1 | ResNet-50 + ProxyNCA++ | R@1: 80.7 |