Jun, 2024

超越对齐:针对大型语言模型的原子偏好增强的真实性调整

TL;DR该研究针对大型语言模型在事实性上出现的错误回应现象,通过偏好学习方法对模型进行微调以提升事实性,并提出了 APEFT 框架,通过加强模型对个体事实的认识,提高了模型在不同数据集上的表现,平均提升了 3.45%。