本文提出了一种基于层次量化的高效嵌入表示方法来实现基于相似性搜索,不仅在搜索准确度方面取得了最新的成果,而且还显著提高了推理速度。
Feb, 2019
本文针对图像检索任务,提出一种从图像到二进制码的压缩映射方法,使用三元组损失函数进行训练,并通过多标签分类问题和深度卷积神经网络实现高维二进制码的学习,从而实现高效的图像检索。
Mar, 2016
通过提出一种替代的量化策略,该论文通过在嵌入空间上进行相似性学习,并采用正交变换优化嵌入的每个坐标,然后通过符号函数将转换后的嵌入量化为二进制,从而提高了大规模图像相似性搜索的性能。
Nov, 2023
本文研究在推荐系统中使用连续表示的实体进行后训练四位量化,提出了基于行均匀量化和基于码本量化的量化方法,这些方法在减少精度降级方面均优于现有的量化方法,作者在 Facebook 的生产模型中应用了均匀量化技术并表明该技术可以将模型尺寸压缩到单精度版本的只有 13.89% 的大小,而模型质量保持不变。
Nov, 2019
本文提出了利用约束稀疏编码来近似存储大规模向量数据库,并实现高效检索的方法,可以在保证码本量的情况下,索引如 BIGANN 等大规模数据集,实现了学习 / 编码时间、索引大小、搜索质量等多种因素的平衡。
Aug, 2016
通过将图表数据的嵌入视为不同偏置下的独立硬币翻转,应用持续优化技术来获得二元向量的简单且有效模型,得出了优于谱图嵌入和各种学习实值嵌入的量化结果,可以显著降低图表数据检索的延迟。
Mar, 2018
本研究提出了一种基于深度卷积神经网络实现的、有监督且压缩的、结构化二进制编码的方法。通过使用块 softmax 非线性和基于批次的熵损失,本方法可以使学习到的编码具有结构性,并在单一和交叉领域分类、实例检索和类别检索等任务中,表现出比基于深度哈希或结构化量化的现有压缩表示更好的性能。
Aug, 2017
本研究提出使用 feed-forward 神经网络来实现稀疏高维哈希码,并且通过对视觉和多模态数据的实验评估表明该方法具有显著的优势。
Dec, 2013
该论文提出了一种使用少量基向量构建嵌入式编码、使用 Gumbel-softmax 技巧直接学习离散码表的自然语言处理模型压缩方法,并在情感分析和机器翻译任务中实现了 98% 的压缩率,从而达到在不影响性能的前提下减少内存占用的目的,该方法不需要改变网络结构且具有语言无关性。
Nov, 2017
本文提出了一种使用神经网络学习二进制哈希码来解决图像检索问题的算法,在无监督和监督学习模式下,通过约束其中一层直接输出二进制哈希码并融入独立性、均衡性和相似性:在学习过程中同时提取视觉特征和生成二进制哈希码,并通过交替优化和谨慎的放松来解决优化中的难点,实验表明本文提出的方法在基准数据集上表现优异。
Dec, 2017