本文介绍了一种新的矢量压缩方法 LVQ,与基于图的索引优化技术相结合能够提高性能,降低内存占用率,在亿级矢量检索中优于目前的最佳解决方案,其中低内存区间性能提高 20.7 倍,内存占用下降 3 倍。
Apr, 2023
本文提出了一种称为 Vector Loss 的新指标,提出了一种新的量化解决方案 VecQ,它可以保证直接量化损失最小和更好的模型精度。此外,为了加快模型训练期间的量化过程,本文还使用参数化概率估算方法和基于模板的导出计算对量化过程进行了加速。
May, 2020
本文提出了一种基于范数误差和方向误差的定量化误差的新方法,指出在最大内积搜索(MIPS)中量化误差在范数方面的影响大于在方向上的影响,因此提出了内部明确的基于规范的矢量量化(NEQ)用于 MIPS。该方法可以明显减小需要搜索的大型数据集,同时提高 PQ,OPQ,RQ 和 AQ 等 VQ 技术的性能。
Nov, 2019
通过使用压缩技术来减少通信成本,我们研究了在压缩向量所需的比特数和压缩误差之间的基本权衡,为最坏情况和平均情况提供了紧密的下界。我们引入了一种高效的压缩算子和一种简单的压缩算子,它们都能达到最低下界,并在实验中取得了很好的效果。
Oct, 2020
通过对权重的重新排列,利用矢量量化方式压缩多层神经网络以在低性能计算平台上运行。在图像分类、目标检测和分割等任务中,相对于现有技术水平,可以将压缩后网络的性能损失降低 40%至 70%。
本文提出了利用约束稀疏编码来近似存储大规模向量数据库,并实现高效检索的方法,可以在保证码本量的情况下,索引如 BIGANN 等大规模数据集,实现了学习 / 编码时间、索引大小、搜索质量等多种因素的平衡。
Aug, 2016
量化是许多机器学习应用中的基础优化之一,该研究论文重新审视自适应矢量量化问题,并提出了改进的时间和空间复杂度的最优解算法,以及适用于大型输入的更快的近似最优算法。实验结果表明这些算法可能在各种机器学习应用中更广泛地应用于自适应矢量量化。
Feb, 2024
本文提出了一种在高维向量的压缩域内重新排列邻居猜想的方法,通过短量化码优化估算距离,以避免从磁盘中读取完整向量,实验证明该方法准确高效且占用较少内存。
Feb, 2011
本研究提出了新的矩阵格式,其内存和算法复杂性受矩阵熵的隐式限制,可以更有效地进行神经网络的推理操作,达到多达 42 倍的压缩比、5 倍的加速比和 90 倍的能源节约。
May, 2018
本文提出了一种名为 Quick ADC 的新技术,通过利用当前 CPU 中可用的单指令多数据 (SIMD) 单元,实现了对 ADC 的 3-6 倍加速,并提出了两个关键算法修改,将 8 位子量化器替换为 4 位子量化器和定量化浮点距离。
Apr, 2017