Jun, 2024

PAFT:一种用于有效的 LLM 微调的并行训练范式

TL;DR利用新的并行训练范式,这篇论文介绍了 PAFT,它独立对大语言模型进行 SFT 和偏好对齐,并通过参数融合将它们合并成一个用于下游应用的最终模型,提高了模型的性能。