用平均精度学习:使用整体损失来训练图像检索
图像检索中,标准评估指标依赖于分数排名,如平均精度(AP)、前 k 个结果的召回率(R@k)、归一化折现累积增益(NDCG)。本研究引入了一种用于鲁棒且可分解的排名损失优化的通用框架,解决了端到端训练深度神经网络时面临的两个主要挑战:非可微性和非可分解性。首先,我们提出了一种通用的排名操作符替代品 SupRank,它适用于随机梯度下降,提供了排名损失的上界并保证了鲁棒训练。其次,我们使用一个简单而有效的损失函数来减小排名损失的批次平均近似与整个训练集上的损失值之间的可分解性差距。我们将我们的框架应用于图像检索的两个标准指标:AP 和 R@k。此外,我们还将我们的框架应用于分层图像检索。我们引入了 AP 的扩展,即分层平均精度 H-AP,并对其以及 NDCG 进行了优化。最后,我们创建了第一个分层地标检索数据集。我们使用半自动流程创建分层标签,扩展了大规模的 Google Landmarks v2 数据集。该分层数据集可在此 URL 公开获取。代码将在此 URL 发布。
Sep, 2023
本文回顾了平均精度丢失 (AP loss),揭示了选择正负样本之间排名对的关键性,并提出了两种改进 AP loss 的策略。 第一个是新的自适应成对误差 (APE) loss,专注于正负样本中的排名对。 此外,利用聚类算法和规范化排名分数和本地化分数选择更精确的排名对。在 MSCOCO 数据集上的实验证明了我们提出的方法相对于当前的分类和排名损失的优越性。
Jul, 2022
本论文介绍了一种新的层次 AP 训练方法(HAP-PIER),其中 HAPPIER 基于一种新的 H-AP 指标,利用概念层次对 AP 进行细化,以整合错误的重要性并更好地评估排名,通过在 6 个数据集上的广泛实验,表明 HAPPIER 在分层检索方面显著优于最新方法,在评估细粒度排名表现时与最新方法相当,而且防止了非分层方法的大多数严重失败案例。
Jul, 2022
本文提出了一个统一,有界并平衡的基于排名的损失函数:平均定位 - 召回 - 精度 (aLRP),用于目标检测中的分类和定位任务,它具有排名和平衡的优点,可自然增强高质量的定位。
Sep, 2020
本文提出了一种基于排序任务和平均准确率损失(AP-loss)的新框架和一种新的优化算法,以解决一阶段目标检测器中的分类任务造成前景背景极度不平衡问题。实验证明这种方法可以有效提高检测性能。
Apr, 2019
本文提出了一种有效的方法,将一阶段目标检测器的分类任务替换为排名任务,并采用平均准确率 (Average-Precision) 损失函数,通过优化算法,处理了训练中的极端正负样本不平衡问题,获得了比现有 AP-based 优化算法更出色的实验结果。
Aug, 2020
介绍了 Smooth-AP 的目标函数来近似优化平均精度;这次研究对标准的检索基准、大规模的数据集进行评估,优于现有技术并展示了 Smooth-AP 在真实场景中的有效性和可扩展性。
Jul, 2020
本研究提出两种技术来改进基于成对排名的多标签图像分类:(1)我们提出了一种新的损失函数,平滑且容易优化;(2)我们将标签决策模块纳入模型,估算每个视觉概念的最优置信阈值。我们在三个大规模数据集(VOC2007、NUS-WIDE 和 MS-COCO)上展示了我们方法的有效性,并取得了文献中报道的最佳结果。
Apr, 2017
本文讨论了利用哈希生成数据二进制编码进行近邻检索的学习排名公式,旨在直接优化基于排名的评估指标,例如平均精度(AP)和标准化折扣累积增益(NDCG)。文章首先观察到,整数值哈明距离通常导致绑定的排名,并建议使用绑定的 AP 和 NDCG 版本来评估哈希检索。为了优化绑定排名指标,我们推导了它们的连续松弛,然后使用深度神经网络进行基于梯度的优化。结果,我们在常见基准测试中建立了图像检索的新领域。
May, 2017