BriefGPT.xyz
大模型
Ask
alpha
关键词
cpu inference
搜索结果 - 3
GEB-1.3B:开放轻量级大型语言模型
最近发展的大型语言模型(LLMs)(如 ChatGPT、Claude 和 Llama)展示了惊人的能力,甚至在多项任务中超越了人类水平。然而,这些模型对资源的需求在训练和推断方面都需要大量的计算能力,限制了它们应用于高性能服务器。鉴于在 C
→
PDF
20 days ago
ICML
LookupFFN: 让 Transformer 在 CPU 推理中计算更轻巧
通过研究 GEMM 基于前馈网络(FFN)的模块,我们提出了一种替代方案(称之为 LookupFFN),将大多数关键操作转化为内存查找,以减少所需的 FLOP,从而在 RoBERTa 语言模型预训练中实现类似性能。
PDF
4 months ago
ICLR
And the Bit Goes Down: 重新审视神经网络量化
本文提出一种矢量量化方法,以减小卷积神经网络架构的存储占用,能以较小的内存占用提供高精度的图像识别。
PDF
5 years ago
Prev
Next