BriefGPT.xyz
Ask
alpha
关键词
low-memory optimization
搜索结果 - 2
AdaLomo:自适应学习率的低内存优化
大型语言模型通常需要较大的内存来训练,但低内存优化(LOMO)技术通过引入自适应学习率以及矩阵分解等方法,降低了内存需求并与 AdamW 优化器在大语言模型上表现相当。
PDF
9 months ago
有限资源下的大型语言模型全参数微调
提出了一种名为 LOw-Memory Optimization(LOMO)的新优化器,该优化器将梯度计算和参数更新融合为一步,可以在单台机器上通过充分利用记忆方案使大型语言模型(LLMs)进行全参数微调的训练过程中降低内存使用,并成功地在一
→
PDF
a year ago
Prev
Next