
摘要
度量学习旨在构建一个具有强区分能力的模型,使相似类别的嵌入在选定度量空间中尽可能接近,而不相似类别的嵌入则被有效分离。传统的做法是采用编码器提取特征嵌入,并使用基于距离的损失函数来对齐表示,通常以欧氏距离作为度量标准。近年来,关于学习双曲空间数据嵌入的研究日益兴起,表明双曲几何在自然数据建模中具有潜在优势。受此启发,本文提出一种基于双曲空间的新型度量学习模型。该方法的核心是一个视觉Transformer架构,其输出嵌入被映射至双曲空间,并通过改进的成对交叉熵损失函数直接进行优化。我们在四个数据集上对六种不同模型变体进行了评估,均取得了新的最先进性能。代码已开源,地址为:https://github.com/htdt/hyp_metric。
代码仓库
OML-Team/open-metric-learning
pytorch
GitHub 中提及
htdt/hyp_metric
官方
pytorch
GitHub 中提及
基准测试
| 基准 | 方法 | 指标 |
|---|---|---|
| metric-learning-on-cars196 | Hyp-DINO | R@1: 89.2 |
| metric-learning-on-cars196 | Hyp-ViT | R@1: 86.5 |
| metric-learning-on-cars196 | Hyp-DINO 8x8 | R@1: 92.8 |
| metric-learning-on-cub-200-2011 | Hyp-ViT | R@1: 85.6 |
| metric-learning-on-cub-200-2011-4 | Hyp-DINO | R@1: 80.9 |
| metric-learning-on-in-shop-1 | Hyp-DINO | R@1: 92.4 |
| metric-learning-on-in-shop-1 | Hyp-ViT | R@1: 92.5 |
| metric-learning-on-stanford-online-products-1 | Hyp-DINO | R@1: 85.1 |
| metric-learning-on-stanford-online-products-1 | Hyp-ViT | R@1: 85.9 |