BriefGPT.xyz
大模型
Ask
alpha
关键词
low rank decomposition
搜索结果 - 4
通过随机低秩和低精度因式分解实现矩阵压缩
我们提出一种算法,利用矩阵的低秩结构来获得任意矩阵的低秩分解,通过向量量化和压缩技术实现了压缩比例和逼近精度之间的折衷。
PDF
9 months ago
LORD:单语代码 LLM 的低秩分解用于一次性压缩
通过 Low Rank Decomposition (LoRD) 来压缩大型语言模型(LLMs)以及用于单语代码生成,能够大幅减少参数,提供速度提升,并且保持可微分性和可训练性,且与现有高效浮点矩阵内核兼容,具备潜力提高模型压缩效果。
PDF
9 months ago
通过层级目标低秩分解加速 Resnet 架构
通过使用低秩分解在网络层上应用压缩,本研究旨在研究压缩神经网络以提高训练和推理速度。我们的研究证明,为了加速,压缩方法应该考虑底层硬件,并进行分析以选择要压缩的层。通过对 ResNet50 的压缩和在全图像数据集 ImageNet-ILSV
→
PDF
9 months ago
使用顺序冻结和秩量化加速低秩分解网络的训练
通过优化秩和顺序冻结分解层,本文提出的两种技术能够在保持准确度不变的前提下,提高模型的训练和推理速度达到 60% 和 37%。
PDF
10 months ago
Prev
Next