BriefGPT.xyz
大模型
Ask
alpha
关键词
memory-efficient fine-tuning
搜索结果 - 3
STAR:基于动态主动学习的约束式纵横比用于大型语言模型的高效微调
通过结合基于不确定性的主动学习和 LoRA,本论文提出了一种新的方法,动态度量不确定性缺口且在 LoRA 训练中引入正则化方法,这种方法在三个复杂推理任务上优于现有的基线模型。
PDF
4 months ago
QFT:量子化的低资源 LLM 全参数调整
提出了一种名为 QFT 的新型量化全参数调优框架,可以实现内存高效调优而不损害性能。该框架采用高效的 Lion 优化器和整数值量化的模型状态存储方法,并提供了梯度流和参数更新方案。结果表明,QFT 将模型状态内存减少到标准解决方案的 21%
→
PDF
9 months ago
使您的预训练模型可逆:从参数到内存高效微调
本文提出了一种内存高效的微调方法(MEFT),通过在预训练语言模型中插入适配器以保留 PLM 的起点并使其可逆,同时将激活内存降低到 84%的完全微调水平,并在 GLUE 基准测试中实现与完全微调相同的分数。
PDF
a year ago
Prev
Next