Jul, 2024

大型语言模型在价值问题上是否具有一致性?

TL;DR大型语言模型似乎会在调查回答中表现出某种偏见,但有些人认为它们不够一致,无法模拟特定的价值观。为了回答这个问题,我们首先将价值一致性定义为(1)同一个问题的释义,(2)同一个主题下的相关问题,(3)单个问题的多项选择和开放性用例,以及(4)将问题翻译成英文、中文、德文和日文。我们将这些测量方法应用于几个大型(>=34b)的开源LLM,包括llama-3和gpt-4o,使用超过300个主题、八千个问题的数据。与之前的研究不同,我们发现模型在释义、用例、翻译和主题上相对一致。然而,仍然存在一些不一致之处。相对于微调模型,基础模型在一致性方面更加一致,并且在不同主题上保持一致,而微调模型在某些主题(如“安乐死”)上的一致性较差,而在其他主题(如“妇女权益”)上的一致性与人类研究对象(n=165)相似。