BriefGPT.xyz
大模型
Ask
alpha
关键词
parameter quantization
搜索结果 - 3
CLAQ:推动 LLM 的低比特后训练量化极限
该论文介绍了一种基于列级适应性权重量化(CLAQ)框架的参数量化方法,通过引入三种不同的自适应策略,可以在大规模语言模型中减少内存占用和提高计算效率。实验结果表明,在不同比特设置下,尤其是在极低比特情况下,该方法能够取得最先进的结果。
PDF
a month ago
基于收发合作学习的语义通信在不匹配的背景知识库下的应用
研究了基于知识库的语义通信的误差问题,作者提出一种基于神经网络的协作学习方法,可以减少接收方的误解。
PDF
a year ago
CVPR
基于位级信息保护的持续学习
本文针对连续学习中可能出现的遗忘和内存成本昂贵的问题,通过信息论的视角提出一种新的 Bit-Level Information Preserving (BLIP) 方法,通过参数量化更新模型参数,以保留先前任务对模型参数的信息增益来避免遗忘
→
PDF
3 years ago
Prev
Next