语言模型反映了谁的观点?
通过定量评估 LLMs 引导出生成反应更类似于谁的观点的框架,将全球调查问答数据集 GlobalOpinionQA 翻译到不同语言后,模型生成的响应不一定成为说这些语言的人观点最相似的。
Jun, 2023
通过挖掘公众意见调查的数据,结合用户观点、人口统计学和意识形态信息来对 LLMs 进行定位,从而实现更好地预测各种话题下的公众观点,同时发现利用个体用户的相关过往意见可以提高预测准确性。
May, 2023
语言模型(LMs)代表某些社会群体的观点较好,可能在内容管理和仇恨言论检测等主观任务上发挥作用。本研究旨在探讨 LMs 如何代表不同观点,现有研究主要关注定位对齐,即模型模拟不同群体(如自由派或保守派)的观点和立场的接近程度,而人类交流还包含情感和道德维度。我们定义了情感对齐问题,度量了 LMs 情感和道德色彩在代表不同群体方面的表现。通过比较 36 个 LMs 生成的回应与 Twitter 消息的情感对比,我们观察到 LMs 与意识形态群体都存在显著的不对齐问题。这种不对齐超过了美国的党派分歧。即使将 LMs 定向于特定的意识形态观点,不对齐问题和模型的自由倾向仍然存在,暗示 LMs 内存在系统偏见。
Feb, 2024
人们对语言的认知取决于个人背景,如性别和种族。本研究利用包含不同人口背景注释的 POPQUORN 数据集,对四种常见的大型语言模型进行一系列实验,以调查它们理解群体差异和对礼貌和冒犯性的预测中的潜在偏见。结果发现,模型的预测更接近来自白人和女性参与者的标签。我们进一步探索了带有目标人口统计标签的提示,证明仅仅包含目标人口统计标签会削弱模型的性能。我们的结果表明,大型语言模型在主观性自然语言处理任务上存在性别和种族偏见,并且仅仅利用人口统计学提示可能无法消除这种影响。
Nov, 2023
利用定量框架和流程系统地调查大型语言模型的政治取向,研究结果显示在八个极化话题中,当用户查询涉及职业、种族或政治取向时,大型语言模型倾向于提供与自由派或左倾观点更为接近的回答,而不是保守派或右倾观点。为了避免这些模型提供政治化的回答,用户在构建查询时应谨慎,并选择中立的提示语言。
Mar, 2024
本文研究了利用大型语言模型(LLMs)来增强调查的三种不同应用程序:缺失数据插补,回溯预测和零 - shot 预测。该论文提出了一个新的方法论框架,其中包含民意调查问题,个人信念和时间背景的神经嵌入,以个性化 LLMs 的意见预测。该研究表明,LLMs 表现出较低的精度,但最佳模型的准确率在意识形态上明显更高,可以用于填补缺失的趋势并确定公众态度的变化。但是,模型在 zero-shot 预测任务中的表现有限,强调了 LLMs 的挑战。
May, 2023
利用社区语言模型,研究政治言论语言化的分歧,通过观察群体在社交媒体中的表达,详细分析不同派别的观点,并且发现了相对于其他方法更高的对比度。
Sep, 2022
通过以人类为模版的角色对大型语言模型进行提示和回答问题,我们研究了这种模型在主观注释任务和信念生成任务中的表现,结果显示大型语言模型在模拟已知的人类偏见方面存在不同的结果,但在表现隐含的偏见方面通常未能达到预期。我们得出结论,大型语言模型缺乏人类思维的内在认知机制,虽然能够捕获人们言语的统计模式,但在复杂社会科学应用中可能限制其效果。
Jun, 2024
准确模拟人的观点动态对于理解各种社会现象至关重要,包括极化和误信息传播。我们提出了一种基于大型语言模型的人口多智能体模拟观点动态的新方法。我们的发现揭示出语言模型智能体存在对准确信息的固有偏差,导致在科学现实中产生共识。然而,该偏差限制了模拟对气候变化等问题持有抵制观点的个体。在通过启动工程引入确认偏见后,我们观察到观点分裂的情况与现有的多智能体研究一致。这些见解突显了在该领域中大型语言模型智能体的前景和局限,并提出了未来发展路径:通过与真实世界的话语相结合,完善语言模型,以更好地模拟人类信念的演变。
Nov, 2023