BriefGPT.xyz
大模型
Ask
alpha
关键词
sparse llms
搜索结果 - 3
SPP:稀疏保存的参数高效微调大型语言模型
介绍了一种基于稀疏保持参数高效微调的方法,通过轻量级可学习的列和行矩阵对稀疏大语言模型的权重进行优化,保持修剪过的预训练模型的结构和稀疏性,显著提升了稀疏大语言模型的性能。
PDF
a month ago
EBFT: 有效和块级的稀疏 LLMs 微调
我们提出了一种基于最小化重构误差的高效快速稀疏 LLMs 微调框架,通过采样小数据集进行校准,并利用反向传播逐块优化重构误差,从而获得最佳解决方案。我们在各种基准测试中进行了广泛实验,始终证明我们的方法优于其他基准线。
PDF
4 months ago
无需训练的动态稀疏化:针对稀疏长模型的零训练微调
基于 Dynamic Sparse No Training (DSnoT) 的训练无关的微调方法,能够有效地提高稀疏语言模型的性能,并开拓了将稀疏性应用于大型语言模型的潜力。
PDF
9 months ago
Prev
Next