本文提出一种基于对比学习和信息瓶颈的二进制哈希方法,通过定义新的目标函数和引入概率二进制表示层来促进模型的端到端训练,证明了其与互信息的强联系,并在三个基准图像数据集上得到了显著优于现有基线的实验结果。
May, 2021
本文提出一种简单的分类目标方法,仅在任意骨干网络的顶部附加两个全连接层,遵守训练期间的二进制约束条件,以此为基础流行实现二进制表示学习和哈希模型的任务,其可以有效地探索数据语义而不需要辅助模型,从而在 CIFAR-10、NUS-WIDE 和 ImageNet 的评测数据上优于现有技术。
Aug, 2019
本文介绍了一种灵活而简单的框架,该框架可以容纳不同类型的损失函数和哈希函数,并可将现有方法放在上下文中,并简化了新问题特定哈希方法的开发。我们提出了一个具有 Hash 编码和 Hash 函数学习两个步骤的框架,其中前一步通常可以被表述为二次问题,而后一步则可以用训练标准的二元分类器来完成。实验表明,我们的方法在高维数据上比大多数最先进的方法表现显著优越。
Aug, 2014
本文提出了一种使用神经网络学习二进制哈希码来解决图像检索问题的算法,在无监督和监督学习模式下,通过约束其中一层直接输出二进制哈希码并融入独立性、均衡性和相似性:在学习过程中同时提取视觉特征和生成二进制哈希码,并通过交替优化和谨慎的放松来解决优化中的难点,实验表明本文提出的方法在基准数据集上表现优异。
Dec, 2017
本文提出了四种连续和通用句子嵌入二值化方法,并评估了它们在多种下游任务中的表现,发现二值化句子嵌入相对于连续嵌入仅降低了约 2%的性能,同时减少了 98%的存储需求,而学习到的二进制表示形式可以通过简单计算其汉明距离来评估两个句子之间的语义相关性,这比计算连续嵌入之间的内积更加计算高效。
Jun, 2019
本文提出一种基于深度学习的监督离散哈希算法,利用分类信息和成对标签信息在单流框架中学习哈希码,并通过交替最小化方法进行优化,实验结果表明该方法在基准数据集上优于当前最先进的方法。
May, 2017
通过调整有界整流函数,提出了一种可学习深度神经网络二进制表示的方法,对 MNIST、CIFAR10 和 ILSVRC2012 数据集进行了测试,并系统地研究了二进制过程的训练动态,最终表示是完全二进制的,可以通过一种引导式的二进制过程来展现神经网络的语义结构。
Nov, 2015
本文针对图像检索任务,提出一种从图像到二进制码的压缩映射方法,使用三元组损失函数进行训练,并通过多标签分类问题和深度卷积神经网络实现高维二进制码的学习,从而实现高效的图像检索。
Mar, 2016
本文介绍一种新的 “直和” 基础度量方法用于概率简单形式下的混合随机变量,并对混合离散变量模型的表示与采样提出两种策略,通过基于混合随机变量的自动编码器的实现和表现,验证该方法的有效性。
Aug, 2021
通过使用 Residual Bit Vector (ResBit) 作为 Analogs Bits 的扩展以及在 GANs 中的条件和图像分类中的标签表达,我们展示了 TRBD 可以快速生成包含多样化类别值的小规模表格数据到大规模表格数据的多样且高质量数据。
Sep, 2023