三元组深度二进制嵌入网络的快速训练
本文提出了一种使用神经网络学习二进制哈希码来解决图像检索问题的算法,在无监督和监督学习模式下,通过约束其中一层直接输出二进制哈希码并融入独立性、均衡性和相似性:在学习过程中同时提取视觉特征和生成二进制哈希码,并通过交替优化和谨慎的放松来解决优化中的难点,实验表明本文提出的方法在基准数据集上表现优异。
Dec, 2017
本文介绍了一种灵活而简单的框架,该框架可以容纳不同类型的损失函数和哈希函数,并可将现有方法放在上下文中,并简化了新问题特定哈希方法的开发。我们提出了一个具有 Hash 编码和 Hash 函数学习两个步骤的框架,其中前一步通常可以被表述为二次问题,而后一步则可以用训练标准的二元分类器来完成。实验表明,我们的方法在高维数据上比大多数最先进的方法表现显著优越。
Aug, 2014
通过深度学习和哈希编码来建立高效、有效的图像检索的解决方案,我们提出了 Deep Triplet Quantization(DTQ)方法来学习深度量化模型,并在三个基准数据集 NUS-WIDE、CIFAR-10 和 MS-COCO 上获得了表现优秀的图像检索结果。
Feb, 2019
通过神经网络进行嵌入表示学习是现代基于相似性的搜索的核心基础。该研究旨在直接学习可量化的嵌入表示和稀疏二进制哈希码,从而实现构建高效哈希表,提供显著的搜索数据减少和超越以往的度量学习方法的最新搜索准确性。
May, 2018
本文提出了一种名为文本视觉深度二进制编码(TVDB)的方法,该方法利用区域卷积网络和文本卷积网络来分别探索图像的区域细节和句子的语义线索,通过交替优化来高效地优化二进制编码和深层编码函数,实验证明此方法能够显著提高跨模态检索的性能。
Aug, 2017
本文提出了一种深度学习结构的监督哈希方法,其中图像通过经过精心设计的卷积神经网络映射为二进制代码,通过三个构建模块的流水线过程(卷积子网络,划分编码模块和三元组排序损失),实现最近邻搜索的高效率和精确度。
Apr, 2015
本文提出一种基于深度学习的监督离散哈希算法,利用分类信息和成对标签信息在单流框架中学习哈希码,并通过交替最小化方法进行优化,实验结果表明该方法在基准数据集上优于当前最先进的方法。
May, 2017
本文提出一种简单的分类目标方法,仅在任意骨干网络的顶部附加两个全连接层,遵守训练期间的二进制约束条件,以此为基础流行实现二进制表示学习和哈希模型的任务,其可以有效地探索数据语义而不需要辅助模型,从而在 CIFAR-10、NUS-WIDE 和 ImageNet 的评测数据上优于现有技术。
Aug, 2019
本研究提出了一种基于深度卷积神经网络实现的、有监督且压缩的、结构化二进制编码的方法。通过使用块 softmax 非线性和基于批次的熵损失,本方法可以使学习到的编码具有结构性,并在单一和交叉领域分类、实例检索和类别检索等任务中,表现出比基于深度哈希或结构化量化的现有压缩表示更好的性能。
Aug, 2017
本文在嘈杂标签的假设下,使用 Triplet Loss 训练卷积神经网络学习能区分特征,并通过 K-means 和相关聚类评估三种 Triplet Loss 公式的聚类性能,提出一个新的公式优于现有方法,应用于 CIFAR-10 图像分类数据集。
Jul, 2020