- WWW使用码字直方图的线性时间自注意力机制实现高效推荐
提出了一种线性时间的自注意力模型(LISA),它通过计算可微的类别分布直方图来实现全上下文关注,同时避免了计算和存储复杂度高的问题,并且在顺序推荐任务中取得较好的性能。
- ICLR带有优化熵编码的学习变换压缩
该论文探讨了学习变换压缩的问题,使用了软量化操作和矢量量化方法,以及通过直接优化编码熵来实现对编码概率分配的松弛操作,通过实验验证了该方法的潜力。
- 开放域问答的高效内存基线
本文研究了基于密集表示的检索系统如何减少内存占用,并提出了三个方法:降维、量化和过滤。在 TriviaQA 和 NaturalQuestions 数据集上进行评估后,发现使用不到 6GB 的内存就能获得可以与竞品相媲美的系统。
- DeCoAR 2.0:具有向量量化的深度语境化声学表示
文章介绍了使用语音表征学习的方法在没有标签的数据上训练语音识别模型的新方法 DeCoAR 2.0。该模型采用 Transformers 编码模型,引入了向量量化层来对语音表征进行训练,并在多个数据稀疏的场景下表现出一致的提高。
- CVPR置换、量化和微调:神经网络的高效压缩
通过对权重的重新排列,利用矢量量化方式压缩多层神经网络以在低性能计算平台上运行。在图像分类、目标检测和分割等任务中,相对于现有技术水平,可以将压缩后网络的性能损失降低 40%至 70%。
- 非线性变换编码
评估了一类名为非线性变换编码(NTC)的方法,这些方法在过去几年中已经与最佳线性变换编解码器在图像方面具有竞争力,并以已建立的感知质量指标(例如 MS-SSIM)超越了它们的速率 - 失真性能。通过简单示例源的帮助,评估了 NTC 的经验速 - 零语音 2020 挑战中基于向量量化的神经网络用于语音单元发现
本文提出两种神经模型,均使用向量量化技术将连续特征映射为有限的编码,旨在利用无标签数据学习将语音的音素内容与说话人特定细节分离的离散表述。在 Zero Speech 2020 挑战赛的英语和印度尼西亚语数据上,我们的两个模型都优于 2019 - 利用量化的细粒度 VAE 和自回归韵律先验生成多样且自然的文本语音样本
本文提出了一种离散潜在空间的顺序先验方法,可以更自然地生成高度连续的语音,通过使用向量量化(VQ)对潜在特征进行离散化,并分别在结果上训练自回归(AR)先验模型,在听觉测试和自动语音识别(ASR)性能的客观指标方面,实验结果表明所提出的模型 - vqSGD: 向量量化随机梯度下降
本文提出了一种名为 vqSGD 的向量量化方法,具有渐近通信成本降低和在分布式优化中具有收敛性保证的特点,并支持隐私保护。该方法基于点集的凸壳,并提供了多个高效实例,通过应用二进制纠错码的特性,平滑地平衡量化通信和估计误差之间的权衡。通过使 - 范数显式量化:改进向量量化获得更佳内积搜索
本文提出了一种基于范数误差和方向误差的定量化误差的新方法,指出在最大内积搜索(MIPS)中量化误差在范数方面的影响大于在方向上的影响,因此提出了内部明确的基于规范的矢量量化(NEQ)用于 MIPS。该方法可以明显减小需要搜索的大型数据集,同 - 利用 VQ-VAE-2 生成多样高保真度图像
本文探讨矢量量化变分自编码器模型 (VQ-VAE) 进行大规模图像生成的应用,采用自回归先验信息,结合简单前馈编码器和解码器网络,以压缩的潜变量空间进行自动回归模型采样,同时使用多尺度层级 VQ-VAE 进行生成,取得比 Generativ - 疯狂麦克斯:仿射样条揭示深度学习
通过样条函数和算子建立了深度网络(DNs)和逼近理论之间的严格桥梁。使用 MASO 作为大类 DN 构造一组信号依赖、类别特定的模板,与信号的内积进行比较。通过向代价函数添加简单惩罚项,可以提高分类性能并减少过度拟合。MASO 隐含地导致信 - KDDBolt:快速向量压缩加速数据挖掘
我们提出了一种能够以比现有技术快 12 倍以上的速度压缩矢量并加速近似向量操作的矢量量化算法,用于计算近似点积等操作的速度可提高 10 倍以上,可以加速最近邻搜索和最大内积搜索 100 倍以上,并且与现有的矢量量化算法相比误差竞争力强。
- 在 GPU 上高效地进行大规模近似最近邻搜索
本研究提出基于 Product Quantization 的两层向量量化树的 ANN 搜索新方法,在 GPU 实现方面取得了比 CPU 更高的性能表现,适用于视频中循环关闭等对时间敏感的高维问题。
- NIPS重尾损失下的快速学习速率
研究非有界并且存在重尾分布的损失函数的快速学习率,并引入了两个新的条件,可以得到比 $O (n^{-1/2})$ 更快的学习速率,例如在 $k$- 均值聚类问题中得到的结果。
- 实证向量量化的快速算法
本文主要研究经验最优向量量化器的期望损失的收敛速度,证明了其收敛速度为 O (1/n),并指出连续密度、有界集合上的良好极化分布属于该结果的研究范围内。