互信息哈希
本研究提出了一种互信息学习的哈希方法 MIHash,可以在在线和批处理设置中使用,有效地减少哈希表重新计算并学习具有高质量的哈希函数,在 2.5M 图像数据集上取得了良好的表现。
Mar, 2017
本文中提出了一种结合多视角和深度学习的、能够显著提高哈希检索性能的新型多视角哈希模型,该模型在 CIFAR-10、NUS-WIDE 和 MS-COCO 数据集上系统地评估,结果表明本方法明显优于现有的单视角和多视角哈希方法。
Feb, 2020
本文介绍了一种灵活而简单的框架,该框架可以容纳不同类型的损失函数和哈希函数,并可将现有方法放在上下文中,并简化了新问题特定哈希方法的开发。我们提出了一个具有 Hash 编码和 Hash 函数学习两个步骤的框架,其中前一步通常可以被表述为二次问题,而后一步则可以用训练标准的二元分类器来完成。实验表明,我们的方法在高维数据上比大多数最先进的方法表现显著优越。
Aug, 2014
本文针对图像检索任务,提出一种从图像到二进制码的压缩映射方法,使用三元组损失函数进行训练,并通过多标签分类问题和深度卷积神经网络实现高维二进制码的学习,从而实现高效的图像检索。
Mar, 2016
通过将图表数据的嵌入视为不同偏置下的独立硬币翻转,应用持续优化技术来获得二元向量的简单且有效模型,得出了优于谱图嵌入和各种学习实值嵌入的量化结果,可以显著降低图表数据检索的延迟。
Mar, 2018
本文提出一种基于深度学习的监督离散哈希算法,利用分类信息和成对标签信息在单流框架中学习哈希码,并通过交替最小化方法进行优化,实验结果表明该方法在基准数据集上优于当前最先进的方法。
May, 2017
此论文研究了利用哈希机制来构建二进制嵌入的方法,该方法包括伪随机投影和非线性映射,使用结构化矩阵可以有效地压缩信息并降低随机性使用,实验证明了其对神经网络学习性能和最近邻分类器性能的依赖关系。
Nov, 2015
通过神经网络进行嵌入表示学习是现代基于相似性的搜索的核心基础。该研究旨在直接学习可量化的嵌入表示和稀疏二进制哈希码,从而实现构建高效哈希表,提供显著的搜索数据减少和超越以往的度量学习方法的最新搜索准确性。
May, 2018
本文介绍了一种无监督深度哈希层称为 Bi-half Net,该层利用熵最大化的方法学习高效的二进制代码,并通过新的解耦设计对图像特征进行优化以逼近最优的半半比特分布,实验证明该方法在多个数据集上具有优秀的性能。
Dec, 2020
本文提出一种基于对比学习和信息瓶颈的二进制哈希方法,通过定义新的目标函数和引入概率二进制表示层来促进模型的端到端训练,证明了其与互信息的强联系,并在三个基准图像数据集上得到了显著优于现有基线的实验结果。
May, 2021