哈希作为关键词感知的学习排名策略
图像检索中,标准评估指标依赖于分数排名,如平均精度(AP)、前 k 个结果的召回率(R@k)、归一化折现累积增益(NDCG)。本研究引入了一种用于鲁棒且可分解的排名损失优化的通用框架,解决了端到端训练深度神经网络时面临的两个主要挑战:非可微性和非可分解性。首先,我们提出了一种通用的排名操作符替代品 SupRank,它适用于随机梯度下降,提供了排名损失的上界并保证了鲁棒训练。其次,我们使用一个简单而有效的损失函数来减小排名损失的批次平均近似与整个训练集上的损失值之间的可分解性差距。我们将我们的框架应用于图像检索的两个标准指标:AP 和 R@k。此外,我们还将我们的框架应用于分层图像检索。我们引入了 AP 的扩展,即分层平均精度 H-AP,并对其以及 NDCG 进行了优化。最后,我们创建了第一个分层地标检索数据集。我们使用半自动流程创建分层标签,扩展了大规模的 Google Landmarks v2 数据集。该分层数据集可在此 URL 公开获取。代码将在此 URL 发布。
Sep, 2023
提出了一种新的 quicksort-flavored 算法,可以在大量训练数据集上优化非可分离损失函数。已证明,该方法适用于包括 AP 和 NDCG 基础上的损失函数,并且对于我们的方法渐近计算复杂度不能提高。我们展示了该方法在优化结构化铰链损失上的效果并且得到了比简单的可分离损失函数更好的结果,同时需要相当的训练时间。
Apr, 2016
本文提出了一种 NeuralNDCG 算法作为一种新颖的不可区分且可微分的排序近似来解决传统 LTR 算法中优化目标与评估标准之间的矛盾,并且我们介绍了两种这种算法的变体,实证评估结果显示其性能优于之前针对优化 NDCG 的工作,并且与最先进算法基本持平。
Feb, 2021
提出了一种查询自适应的深度加权哈希方法(QaDWH),通过加权汉明距离,可以对不同查询进行细粒度排名的细节图像检索方法,并在四个广泛使用的数据集上展示了其超越八个现有最先进哈希方法的实验结果。
Dec, 2016
该研究提出了一种新的哈希方法,名为 Ordinal Constraint Hashing(OCH),其使用基于图的近似来嵌入排序关系,并通过排序级数约束投影减少排序图的大小。此外,该方法还通过松散约束和特定的随机梯度下降算法来有效地学习这些哈希函数。实验表明,OCH 方法在三个大规模的视觉搜索基准数据集上具有优异的性能。
Nov, 2016
本研究借助最近的榜单损失函数理论和实践证明,通过直接优化全局平均精度,提出了一个图像检索模型,消除了现有模型所需的工程努力和基于工具性方法的需求,并在许多标准检索基准测试中建立了新的基准。
Jun, 2019
本文针对图像检索任务,提出一种从图像到二进制码的压缩映射方法,使用三元组损失函数进行训练,并通过多标签分类问题和深度卷积神经网络实现高维二进制码的学习,从而实现高效的图像检索。
Mar, 2016
本文介绍了一种学习图片哈希的方法,即自然排序哈希(NSH)方法,该方法采用可微分的排序近似方法来训练哈希编码器,同时提出了一种新的排序噪声对比估计(SortedNCE)损失方法,能够在无监督的情况下进行数据语义关系挖掘的对比学习,实验证明 NSH 模型在三个基准数据集上的性能明显优于现有的无监督哈希方法。
Jan, 2022
本文提出了一种高效无监督的方案,通过设计三个标准以限制敌对空间,从而在深度哈希算法供应链的漏洞下识别出混淆攻击,并在实时图像查询中获得 2-23% 的检测率提高。
Apr, 2023