Oct, 2023

大型语言模型中偏重冗余的偏好标注

TL;DR近年来,大型语言模型(LLMs)在自然语言处理和机器学习领域取得了显著的发展,其性能提升的一个关键因素是通过人类反馈实现与人类的对齐,同时研究发现其他 LLMs 进行强化学习也可以取代人类反馈。本文研究了使用其他 LLMs 来评估 LLMs 时出现的偏差,并着重探究了冗长性偏差 —— 即 LLMs 有时倾向于提供更冗长的答案,即使质量相似。我们发现在我们的问题设置中,GPT-4 更倾向于提供更长的答案,我们提出了一种度量这种偏差的指标。