BriefGPT.xyz
Ask
alpha
关键词
mixed preference optimization
搜索结果 - 1
混合偏好优化:通过数据选择和更好的参考模型进行强化学习
本文研究了大规模语言模型(LLMs)对齐的两种主要方法:强化学习与人类反馈(RLHF)以及基于对比学习的直接偏好优化(DPO)。通过分析 RLHF 和 DPO 的稳定性和鲁棒性,我们提出了一种新方法 MPO(混合偏好优化),该方法减轻了两种
→
PDF
3 months ago
Prev
Next