BriefGPT.xyz
大模型
Ask
alpha
关键词
ternary weights
搜索结果 - 4
1 位 LLMs 的时代:所有大型语言模型都在 1.58 比特
1-bit Large Language Models (LLMs), such as BitNet b1.58, with ternary weights, define a new scaling law and offer high-
→
PDF
4 months ago
ICLR
使用本地重新参数化技巧学习离散权重
本研究使用 LR-nets(局部重参数网络)的方法,通过对神经网络加入离散权重的简单修改,对于 MNIST、CIFAR-10 和 ImageNet 数据集进行测试,表明用离散权重的二进制和三进制模型在大部分实验中能够取得最先进的结果。
PDF
7 years ago
利用精细量化的三元神经网络
本文提出了一种精细的量化方法 (Fine-grained Quantization, FGQ),该方法可对预训练的全精度模型进行三值化,同时将激活限制为 8 位和 4 位。通过该方法,我们证明了无需额外训练,就可以在最先进的拓扑结构上实现最
→
PDF
7 years ago
使用动态定点实现混合低精度深度学习推理
本研究提出了一种基于聚类的量化方法,将预先训练好的全精度权重转换为三元权重,并将激活约束为 8 位,从而实现小于 8 位完整整数推理管道。此方法使用较小的 N 个过滤器的簇,并使用共同缩放因子来最小化量化损失,同时最大化三元操作的数量。在
→
PDF
7 years ago
Prev
Next