通过以人类为模版的角色对大型语言模型进行提示和回答问题,我们研究了这种模型在主观注释任务和信念生成任务中的表现,结果显示大型语言模型在模拟已知的人类偏见方面存在不同的结果,但在表现隐含的偏见方面通常未能达到预期。我们得出结论,大型语言模型缺乏人类思维的内在认知机制,虽然能够捕获人们言语的统计模式,但在复杂社会科学应用中可能限制其效果。
Jun, 2024
该研究使用心理测量学的方法,对 OpenAI 的 GPT-3.5 和 GPT-4 模型进行了人格特质测试。结果发现,使用普通人物描述时,GPT-4 的回答表现出与人类相似的心理特点,而使用具体人口统计信息的情况下,两个模型的回答则表现较差,此研究对于大语言模型在模拟个体级人类行为方面提出了怀疑。
May, 2024
大型语言模型(LLMs)是否具有其自己的世界观和个性倾向?对 LLM 模型回答主观问题的模拟进行了 100 多万次,将其回答与欧洲社会调查(ESS)的真实数据进行比较,结果表明问题引导对偏见和变异的影响是基本的,突出了主要的文化、年龄和性别偏见。文中还讨论了测量 LLMs 与调查数据差异的方法,如计算加权平均值和基于 Jaccard 相似性的一项新提出的测量。我们得出结论,在使用 LLMs 模拟个体决策或集体行为之前,分析问题引导的稳健性和变异性非常重要,因为它们的模拟能力充其量是近似的。
本文探讨了使用心理测量测试来量化和分析大型语言模型输出中的人格特质的可靠性和有效性,并讨论了如何对这些模型进行塑造的潜在应用和伦理影响,特别是关于负责任地使用 LLM。
Jul, 2023
总结:该论文是一份针对大型语言模型中角色扮演和个性化的综述调查,包括对角色扮演和个性化的研究分类、当前挑战和未来方向,并提供了供社区使用的论文资源。
该研究使用大型语言模型 (Large language models) 和模拟人物 (Simulated personae) 来强化人类常识与认知,展现专家行为的力量,其中包括挑战 LLM 回应的准确度以及复现量子光学领域的最新研究结果。
Jun, 2023
通过在大型语言模型中引入个性化的提示来诱导其特定的人格特质,研究发现这种引入显著影响了模型在心智理论推理任务中的推理能力。
Mar, 2024
大型语言模型(LLMs)在社会科学研究中的自然语言理解任务的通用性使其备受青睐。本研究探讨了当前的提示格式是否能使 LLMs 以一致且稳健的方式提供回答,结论发现即使对选项顺序进行简单扰动也足以显著降低模型的问答能力,且大多数 LLMs 在否定一致性方面表现低下,提示目前的普遍做法无法准确捕捉模型的认知,我们讨论了改进这些问题的可能替代方案。
Nov, 2023
通过数据驱动的协同过滤方法,将用户嵌入到连续矢量空间中并聚类为具有一致观点的群体,以便实现更细致、更准确地理解不同社会群体,并增强模型的可操控性。最后,我们提出了一种有效的方法来将大型语言模型导向特定的个人,并通过学习软提示模型将用户的连续表示映射为虚拟令牌序列,从而使模型能够根据给定用户生成对应的回应。我们的结果表明,相比于一系列基准方法,我们的操控性算法具有更好的性能。
大规模语言模型在大量文本语料库上进行训练,这些文本语料库编码了各种个性特质。本文提出了一种新的基于贝叶斯推断的个性提取框架 PICLe,旨在使语言模型的行为与目标个性相一致。通过与基准方法在三个当代语言模型上进行广泛比较,我们证明了 PICLe 的有效性。