BriefGPT.xyz
大模型
Ask
alpha
关键词
fully quantized training
搜索结果 - 2
Jetfire:使用 INT8 数据流和每块量化实现高效准确的 Transformer 预训练
Jetfire 提出了一种高效准确的 INT8 预训练方法,通过 INT8 数据流优化内存访问和每个块的量化方法来实现与 FP16 基线相当的准确性,且相对于 FP16 基线,提供了 1.42 倍的训练加速和 1.49 倍的内存减少。
PDF
3 months ago
一种深度神经网络低比特宽度训练的统计框架
本论文提出了一个用于分析全量化训练算法的统计框架,并探讨了梯度量化对其收敛性的影响。作者开发了两个新的梯度量化器,并展示了这些量化器相对于现有的每个张量量化器具有更小的方差。
PDF
4 years ago
Prev
Next