Jun, 2024

大型语言模型对齐的低冗余优化

TL;DR在这篇研究论文中,研究人员通过对大型语言模型(LLMs)的经验研究发现了对齐训练中存在的冗余神经元,并提出了一种名为 ALLO 的低冗余对齐方法。该方法通过梯度策略识别与人类偏好数据相关的神经元,通过奖励模型计算损失来识别与对齐相关的关键词汇,并将对齐过程分解为遗忘和学习阶段,通过更新不同比例的神经元实现。实验证明 ALLO 的有效性。