Feb, 2024

对齐大型语言模型的奖励转换与合并

TL;DR学习从偏好数据中获取奖励模型并将其用于更新语言模型是一种常见的调整语言模型与人的偏好一致性的方法。我们研究了在这种方法中出现的两个相关问题。首先,对于奖励模型的单调转换,是否有一种选择比其他选择更好?其次,我们经常希望将语言模型与多个属性对齐:我们应该如何组合多个奖励模型?通过使用与 Bradley-Terry 偏好模型学习的奖励(常见情况)的概率解释对齐过程,我们确定了一种自然的转换选择。这个派生的转换具有两个重要属性。首先,它强调改进表现较差的输出,而不是已经得分很高的输出。这减轻了欠拟合(其中某些提示没有改进)和奖励欺骗(模型学习利用奖励模型的误规范)。其次,它通过将求和与逻辑合取链接,实现了奖励的有原则的聚合:转换后的奖励的总和对应于在所有测量属性中输出是 “好” 的概率,我们可以准确刻画这种概率。使用 RLHF 对调整语言模型以既有帮助又无害的方式进行实验,与基准(未转换)方法相比有显著改进。