层次平均精度训练用于相关图像检索
本研究借助最近的榜单损失函数理论和实践证明,通过直接优化全局平均精度,提出了一个图像检索模型,消除了现有模型所需的工程努力和基于工具性方法的需求,并在许多标准检索基准测试中建立了新的基准。
Jun, 2019
图像检索中,标准评估指标依赖于分数排名,如平均精度(AP)、前 k 个结果的召回率(R@k)、归一化折现累积增益(NDCG)。本研究引入了一种用于鲁棒且可分解的排名损失优化的通用框架,解决了端到端训练深度神经网络时面临的两个主要挑战:非可微性和非可分解性。首先,我们提出了一种通用的排名操作符替代品 SupRank,它适用于随机梯度下降,提供了排名损失的上界并保证了鲁棒训练。其次,我们使用一个简单而有效的损失函数来减小排名损失的批次平均近似与整个训练集上的损失值之间的可分解性差距。我们将我们的框架应用于图像检索的两个标准指标:AP 和 R@k。此外,我们还将我们的框架应用于分层图像检索。我们引入了 AP 的扩展,即分层平均精度 H-AP,并对其以及 NDCG 进行了优化。最后,我们创建了第一个分层地标检索数据集。我们使用半自动流程创建分层标签,扩展了大规模的 Google Landmarks v2 数据集。该分层数据集可在此 URL 公开获取。代码将在此 URL 发布。
Sep, 2023
本文回顾了平均精度丢失 (AP loss),揭示了选择正负样本之间排名对的关键性,并提出了两种改进 AP loss 的策略。 第一个是新的自适应成对误差 (APE) loss,专注于正负样本中的排名对。 此外,利用聚类算法和规范化排名分数和本地化分数选择更精确的排名对。在 MSCOCO 数据集上的实验证明了我们提出的方法相对于当前的分类和排名损失的优越性。
Jul, 2022
介绍了 Smooth-AP 的目标函数来近似优化平均精度;这次研究对标准的检索基准、大规模的数据集进行评估,优于现有技术并展示了 Smooth-AP 在真实场景中的有效性和可扩展性。
Jul, 2020
本文讨论了利用哈希生成数据二进制编码进行近邻检索的学习排名公式,旨在直接优化基于排名的评估指标,例如平均精度(AP)和标准化折扣累积增益(NDCG)。文章首先观察到,整数值哈明距离通常导致绑定的排名,并建议使用绑定的 AP 和 NDCG 版本来评估哈希检索。为了优化绑定排名指标,我们推导了它们的连续松弛,然后使用深度神经网络进行基于梯度的优化。结果,我们在常见基准测试中建立了图像检索的新领域。
May, 2017
本文提出了基于定位和分类质量的视觉检测器的匹配误差的平均值作为 Localisation Recall Precision (LRP) 误差的测量方式。同时还引入了 oLRP 误差作为评估视觉检测器的最佳阈值。基于近 100 个最先进的视觉检测器,使用 10 个数据集进行了比较,发现 LRP 误差提供了比其他方法更丰富和更有区分度的信息。
Nov, 2020
本文提出了一种使用自适应置换的分级注意力自回归模型(HAAP)来增强位置 - 上下文 - 图像交互能力,从而改进了内部语言模型的自回归泛化。通过使用隐式置换神经元(IPN)生成自适应的注意力掩码,增加了训练数据的多样性,避免了模型对特定顺序的依赖,并减少了置换语言模型的训练开销。同时,通过交叉模态分级注意机制(CHA)将上下文和图像特征相结合,建立了丰富的位置语义依赖关系,避免了迭代细化操作。大量实验结果表明,所提出的 HAAP 在准确性、复杂性和延迟方面具有最先进的性能。
May, 2024
通过一种基于点 - 集三元组损失函数架构的 Hard-Aware Point-to-Set (HAP2S) 损失以及软硬采样机制,我们提出的方法在精度、鲁棒性、灵活性和泛化性等方面均优于其他基准函数,并应用于除 person re-ID 外的 CUB-200-2011 和 Cars196 等深度度量学习基准测试中均取得了最先进的结果。
Jul, 2018
本文提出了一种新的监督学习正则化方法,名为 HIER,它可以在超几何空间中学习层次代理以逼近训练数据的语义层次结构,为度量学习提供更丰富和更细粒度的监督,并在四个标准基准测试中实现了最好的表现。
Dec, 2022