BriefGPT.xyz
Ask
alpha
关键词
parameter scale reduction
搜索结果 - 1
LoRAP:大型语言模型的 Transformer 子层应采用差异化结构压缩
本研究提出了一种混合压缩模型 LoRAP,通过输入激活加权奇异值分解方法和基于低秩度差异的参数分配方案,增强了 Transformer 模型中 Multi-Head Self-Attention 子层的低秩特性,并提出了无梯度的结构化通道剪
→
PDF
3 months ago
Prev
Next