级联组合优化实现的端到端高效表示学习
通过神经网络进行嵌入表示学习是现代基于相似性的搜索的核心基础。该研究旨在直接学习可量化的嵌入表示和稀疏二进制哈希码,从而实现构建高效哈希表,提供显著的搜索数据减少和超越以往的度量学习方法的最新搜索准确性。
May, 2018
提出了一种基于正则化函数的方法,学习高维稀疏表示,以在视觉检索中提高效率,其表现与其他基线方法相竞争,且在实际数据集中具有类似或更好的速度精度平衡。
Apr, 2020
本文提出了利用约束稀疏编码来近似存储大规模向量数据库,并实现高效检索的方法,可以在保证码本量的情况下,索引如 BIGANN 等大规模数据集,实现了学习 / 编码时间、索引大小、搜索质量等多种因素的平衡。
Aug, 2016
通过提出一种替代的量化策略,该论文通过在嵌入空间上进行相似性学习,并采用正交变换优化嵌入的每个坐标,然后通过符号函数将转换后的嵌入量化为二进制,从而提高了大规模图像相似性搜索的性能。
Nov, 2023
本文提出基于图神经网络的哈希学习方法,在连续编码和离散编码的联合特征表示空间中实现检索,并使用 STE 和导向策略进行离散优化,实验证明该模型在维持哈希编码相对顺序的同时运行速度较快且性能与其连续编码对应模型无明显差别。
Mar, 2020
本文研究在推荐系统中使用连续表示的实体进行后训练四位量化,提出了基于行均匀量化和基于码本量化的量化方法,这些方法在减少精度降级方面均优于现有的量化方法,作者在 Facebook 的生产模型中应用了均匀量化技术并表明该技术可以将模型尺寸压缩到单精度版本的只有 13.89% 的大小,而模型质量保持不变。
Nov, 2019
本文针对图像检索任务,提出一种从图像到二进制码的压缩映射方法,使用三元组损失函数进行训练,并通过多标签分类问题和深度卷积神经网络实现高维二进制码的学习,从而实现高效的图像检索。
Mar, 2016
本篇论文提出了一种基于端到端训练策略的学习深层结构中可压缩表示的新方法,此方法基于分段连续函数,将分段函数在训练过程中逐渐退化为其离散化函数。并且作者将该方法应用于图片压缩和神经网络压缩两个具有挑战性的领域,取得了与基于不同方法的最先进技术相当的成果。
Apr, 2017
提出了一种使用启发自单词意义语言学研究的稀疏编码中的分层正则化来学习单词表示的新方法,并展示了一种基于随机近端方法的高效学习算法,用于处理数十亿单词令牌的层次稀疏编码,实验表明该方法在各种基准任务上的表现优于或与最先进的方法相媲美。
Jun, 2014
本文提出了一种基于图遍历和压缩表征的方法,该方法编码可索引向量使用量化和利用图结构改进相似度估计。该方法在保证较小比较集的高精度及显著内存压缩的同时,在 64-128 字节每向量的操作点上,优于现有技术在二十亿规模公共基准测试中的表现。
Apr, 2018