BriefGPT.xyz
大模型
Ask
alpha
关键词
activation memory
搜索结果 - 4
可控内存的管道并行
通过重复构建块的方式,将流水线调度分解为生命周期的概念,并发现现有调度方案在内存利用方面存在问题。为了解决这个问题,引入了一系列具有可控激活内存的高效构建块,可以在不影响效率的情况下将峰值激活内存减少到 1F1B 的 1/2 甚至 1/3,
→
PDF
a month ago
ICLR
AutoChunk: 自动激活块用于高效存储长序列推理
通过自动和自适应的编译器系统,我们提出了 AutoChunk 方法,该方法通过块策略有效减少了长序列推理中的激活内存,证明了 AutoChunk 可以在保持速度损失在 10% 以内的同时,减少 80% 的激活内存,并将最大序列长度提高 3.
→
PDF
5 months ago
LoRA-FA: 内存高效的大语言模型低秩适应微调
LoRA-FA 采用低内存量的权重更新方式,用于大型语言模型的微调,具有接近完整参数微调的准确性,降低了内存使用,技术优化了 LoRA。
PDF
a year ago
使您的预训练模型可逆:从参数到内存高效微调
本文提出了一种内存高效的微调方法(MEFT),通过在预训练语言模型中插入适配器以保留 PLM 的起点并使其可逆,同时将激活内存降低到 84%的完全微调水平,并在 GLUE 基准测试中实现与完全微调相同的分数。
PDF
a year ago
Prev
Next