利用大型语言模型重新发现人格的潜在维度
通过社交媒体数据的自然语言使用,我们研究了推断一组新的人类特征的过程,并通过与五因素人格模型的比较得出,语言基础特质的构建更具普适性,并且在某些方面比基于问卷的特质更能预测一些基于实体的结果,从而为新的个性化构建提供了一定的参考价值。
May, 2017
本文研究了语言模型,尤其是GPT2和BERT,如何通过语言生成来表现其所体现的人格特质,以及这些特质是否可以被控制。作者通过提供不同类型的语境可以精准地控制这些模型的表现,最终得出这些模型可以作为识别个性特质和控制人格的强有力的工具。本研究还提供了一份基于”大五人格模型“的人品数据集和Reddit上的人格数据集。
Dec, 2022
该研究探讨了如何对大型语言模型进行人格测试,并提出了使用自我评估测试的不足之处,主要体现在测试结果不可靠,无法客观准确地测量机器的人格特点,原因是存在内在的偏见和不一致性。因此,需要开发更科学的方法来对大型语言模型的人格特点进行准确可靠的评估。
May, 2023
本文探讨了使用心理测量测试来量化和分析大型语言模型输出中的人格特质的可靠性和有效性,并讨论了如何对这些模型进行塑造的潜在应用和伦理影响,特别是关于负责任地使用LLM。
Jul, 2023
我们介绍了一种在语言模型中调整个性特质的新方法,通过使用一组无监督构建的个性化词典,调整原始语言模型在解码阶段预测下一个词的概率,从而精细地操纵个性特质,并在不更新参数的情况下轻松集成到其他语言模型中。
Oct, 2023
该研究探索了AI性格或AInality的概念,表明大型语言模型(LLMs)呈现出与人类个性类似的模式。通过使用人类中心的心理测量测试,如迈尔斯-布里格斯类型指标(MBTI)、大五人格测试(BFI)和短暗黑三博士(SD3),我们确认了LLM的个性类型,并通过引入角色扮演提示,展示了LLMs的适应性,显示了它们在不同个性类型之间动态切换的能力。使用项目性测试,如华盛顿大学句子完成测试(WUSCT),我们揭示了LLMs个性的隐藏方面,这些方面通过直接提问很难获取。项目测试允许对LLMs的认知过程和思维模式进行深入探索,并为AInality提供了多方面的视角。我们的机器学习分析发现,LLMs表现出明显的AInality特征和多样化的个性类型,展示了对外部指令的动态变化。该研究开创了在LLMs上应用项目性测试的先例,揭示了它们多样而适应性的AInality特征。
Dec, 2023
借助不同输入提示,使用多个参数大小的多个大型语言模型对它们的输出进行了评估,结果显示,大型语言模型普遍表现出高度的开放性和低度的外向性,且参数越多越倾向于开放性和责任心,并且在不同数据集上对细调模型产生了微小的调整
Feb, 2024
通过使用外部评估方法,本文调查了大型语言模型(LLMs)的个性,并发现在不同情境下生成帖子和评论时,LLMs的个性有显著差异,与人类表现出一致的个性特征形成了对比,从而引发对LLMs个性定义和测量的重新评估。
Feb, 2024
本文研究借助简单描述包含社会人口和个性类型信息,大型语言模型(LLMs)在重建人类认知中基本性格特征方面的能力。通过利用HEXACO人格框架,我们的研究探讨了LLMs在从简单描述中恢复和预测潜在人格维度的一致性。实验证明在人格重建方面存在显著的一致性,但也观察到一些不一致性和偏见,例如在缺乏明确信息时默认为积极特质。此外,年龄和子女数量等社会人口因素也会影响恢复的人格维度。这些发现对于利用LLMs构建复杂的基于代理的模拟具有重要意义,并强调了对LLMs中健壮人格生成的进一步研究的需求。
Jun, 2024
本文提出基于专家混合(MoE)的个性化大型语言模型P-tailor来建模五大人格特征,并将其与个性特化损失相结合,以促进专家在不同人格特征上的专业化,从而提高模型参数利用效率。作者还构建了高质量的人格塑造数据集(PCD),在各个主题下学习和展示不同的人格特征。通过广泛的实验验证了P-tailor在对LLMs的细粒度人格特征操作方面的出色性能和有效性。
Jun, 2024