Dec, 2023

ASPEN:使用单个GPU实现高吞吐量的大型语言模型LoRA微调

TL;DRASPEN是一个高吞吐量的fine-tuning框架,通过LoRA方法在单个GPU上高效地训练多个任务,使用共享的预训练模型和自适应调度,可以显著节省GPU内存并提高训练吞吐量,同时减少工作轮转时间和训练延迟。