通过随机低秩和低精度因式分解实现矩阵压缩
本文考虑在通过随机投影压缩的数据上准确高效地计算低秩矩阵或张量分解的问题。我们研究了在压缩域内执行分解并从恢复 (压缩) 因子中重构原始高维因子的方法,在矩阵和张量设置中,我们建立了这种自然方法能够证明恢复原始因子的条件。我们对合成数据进行了实验,证实了压缩因式分解在真实世界的基因表达和脑电时间序列数据集中的实际适用性,并支持这些理论结果。
Jun, 2017
本文介绍了一种用于构建随机算法的模块化框架,以进行矩阵分解,通过随机抽样识别矩阵的大部分内容,并将输入矩阵压缩到子空间,这种方法在精度、速度和鲁棒性方面都比传统方法更具优势,能够更好地解决大数据集合的问题。
Sep, 2009
近年来,大型语言模型(LLMs)在自然语言处理方面取得了重要进展,但其规模的增大增加了计算负担,需要在效率和性能之间取得平衡。为了解决 LLMs 中低秩压缩的挑战,我们对大模型的低秩特性进行了实证研究,并提出了一种适用于 LLMs 的低秩压缩方法,该方法通过汇总协方差矩阵的特征分布精确估计和贝叶斯优化策略来分配低秩维度。我们在 LLaMA-2 模型上的实验表明,我们的方法在相同的压缩比下比现有的强结构剪枝和低秩压缩技术表现更佳,能够保持模型的性能。
May, 2024
基于训练后的秩选择方法 Rank-Tuning,结合训练适应性,我们的方法能够实现高压缩率而无性能损失或性能损失较小,数值实验结果表明,我们可以将循环神经网络压缩至最多 14 倍,最多相对性能降低 1.4%。
Oct, 2023
本文介绍了低秩逼近技术,并给出了众多相关技术的广泛参考资料。在此基础上,简要评述了基于奇异值分解、QR 分解、随机算法以及交叉 / 骨架逼近等各种低秩逼近技术的应用和优缺点。
Jun, 2016
本文研究文献中关于维数约减最常讨论的算法之一,即用低秩矩阵来近似输入矩阵的算法。我们介绍了 Martinsson 等人(2008)中算法的新颖分析方法,可以得出尖锐的估计和关于其性能的新见解。通过实验,我们证明了我们预测的紧密性与经验观测的一致性。
Aug, 2013
利用网络剪枝与矩阵分解相结合的方式,提出了一种有效的预训练语言模型的模型压缩方法,通过新的初始化技术和训练过程优化技巧,能够在保持性能的同时实现更加高效的模型压缩。
Jun, 2023
本研究提出一种深度学习模型的压缩方法,利用低秩矩阵因式分解来压缩自然语言处理中的字词嵌入层,经过实验证明可以在 90% 的压缩比下保持精度不受影响,并且在句子分类任务上表现优于其他方法,同时还引入了一种新的学习率调度算法 CALR,其在句子分类基准测试中表现出优越性。
Nov, 2018
该论文提出了一种新的因子分解模型,它将低秩矩阵和线性子空间约束分离开来,从而使得优化问题在 Riemannian spectrahedron 流形上得以求解。实验证明,该方法在标准 / 鲁棒 / 非负矩阵补全,Hankel 矩阵学习和多任务学习等问题上具有较高的效率。
Apr, 2017
本研究提出了一个新的模型以及应用交替最小化算法和两种自适应秩调整策略同时对低秩张量进行低秩矩阵分解,结果表明,该算法可以在比其他方法更少的数据采样下恢复各种合成低秩张量,而且实际数据的测试结果也有类似优势。
Dec, 2013