3 个月前

重新思考平均精度的优化:仅在正例之前惩罚负例已足够

重新思考平均精度的优化:仅在正例之前惩罚负例已足够

摘要

在图像检索任务中,优化平均精度(Average Precision, AP)的近似方法已受到广泛关注。然而,受限于AP本身的定义,现有方法在计算损失时同时考虑了每个正样本之前的所有正负样本排序情况。本文提出不同观点:实际上,仅需对位于正样本之前的负样本施加惩罚即可,因为损失仅来源于这些负样本。为此,我们提出一种新颖的损失函数——仅惩罚正样本前的负样本(Penalizing Negative instances before Positive ones, PNP),该函数可直接最小化每个正样本前的负样本数量。此外,基于AP的方法通常采用固定且次优的梯度分配策略。因此,我们通过构建损失函数的导数函数,系统性地研究了多种梯度分配方案,进而提出了两种变体:PNP-I(采用递增导数函数)与PNP-D(采用递减导数函数)。PNP-I通过为较难的正样本分配更大的梯度,更加关注困难样本,并试图使所有相关实例彼此靠近;而PNP-D则对这些困难样本关注较少,采用更温和、渐进的方式进行修正。在大多数真实世界数据集中,某一类别通常包含多个局部聚类。PNP-I会盲目地将这些聚类合并,而PNP-D则保持其原有结构不变。因此,在实际应用中,PNP-D更具优势。在三个标准检索数据集上的实验结果与上述分析一致。大量实验证明,PNP-D在性能上达到了当前最优水平。相关代码已开源,地址为:https://github.com/interestingzhuo/PNPloss。

代码仓库

基准测试

基准方法指标
image-retrieval-on-inaturalistPNP Loss
R@1: 66.6
R@16: 89.7
R@32: 92.6
image-retrieval-on-sopPNP Loss
R@1: 81.1
vehicle-re-identification-on-vehicleid-largePNP Loss
Rank-1: 93.2
Rank-5: 96.6
vehicle-re-identification-on-vehicleid-mediumPNP Loss
Rank-1: 94.2
Rank-5: 96.9
vehicle-re-identification-on-vehicleid-smallPNP Loss
Rank-1: 95.5
Rank-5: 97.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
重新思考平均精度的优化:仅在正例之前惩罚负例已足够 | 论文 | HyperAI超神经