Oct, 2023

NEFTune: 噪声嵌入改善指令微调

TL;DR使用简单的增强方法 NEFTune,对语言模型进行细调可以显著提高性能,在 AlpacaEval 测试中,LLaMA-2-7B 的标准细调结果为 29.79%,而使用带有噪声的嵌入向量增强后提高至 64.69%。NEFTune 还在现代指令数据集上改进了强基准模型,在 Evol-Instruct 数据集上提高了 10%,在 ShareGPT 上提高了 8%,在 OpenPlatypus 上也提高了 8%。对于使用 RLHF 进一步优化的强大模型(如 LLaMA-2-Chat),通过 NEFTune 进行额外训练也带来了益处。