在将大语言模型用作人类替代品时需谨慎:曙光中的斯库拉
研究人员使用一系列新颖的提示来测试 ChatGPT 中是否显示出启发式方法、偏见和其他决策效应等现象,并发现 ChatGPT 在这些效应中表现出与人类相似的行为。
May, 2023
本研究对语言模型(LLMs)的理解能力进行了比较和对照,发现人类分析师和LLMs的分类和推理能力存在显著差异,但二者合作可能会产生协同效应,从而丰富了定性研究。
Jun, 2023
经过调查,发现大型语言模型(LLMs)在金融行业消费者投诉中的使用与获取理想结果的可能性及语言特征改善相关,进一步实验证明了LLM在人类沟通中提升信息说服力的能力,并凸显了LLM在人类沟通中的转变潜力。
Nov, 2023
本文探索大型语言模型在心理学应用中的前沿。大型语言模型如ChatGPT正在改变心理学研究的方式,并在认知与行为心理学、临床与咨询心理学、教育与发展心理学以及社会与文化心理学等多个领域发挥着影响,强调了它们模拟人类认知和行为的潜力。该论文还讨论了这些模型在心理学方面的能力,提供了创新工具用于文献综述、假设生成、实验设计、实验对象选择、数据分析、学术写作和同行评审。然而,尽管大型语言模型对推进心理学研究方法至关重要,但该论文也注意到了其技术和伦理挑战,如数据隐私、在心理学研究中使用大型语言模型的伦理影响以及对这些模型局限性的更深入了解的需要。研究人员应该负责任地在心理学研究中使用大型语言模型,遵守伦理标准,并考虑在敏感领域部署这些技术的潜在后果。总之,这篇文章全面概述了大型语言模型在心理学中的现状,探讨了潜在的好处和挑战。它号召研究人员在充分利用这些模型的优势的同时,负责任地解决相关风险。
Jan, 2024
利用大型语言模型生成合成的人类示范,然后通过模仿学习学习非理性主体策略,以此来模拟人类特征性的非理性行为,通过实验评估了该框架的模拟非理性行为的能力,并得出结论和讨论框架的潜在收益、挑战和限制。
Feb, 2024
该研究通过分析和比较大型语言模型(LLMs)与马丁·海德格尔“实用存在”和“现成存在”概念之间的相似之处,以及通过基于海德格尔对真理的概念的结构性分析,探讨了LLMs在人类推理过程中的位置和局限性,发现尽管LLMs在某些推理能力上表现出色,但其与人类智力能力的匹敌还未实现。此研究丰富了我们对LLMs的理解,并推动了人工智能潜力与限制的讨论,为未来对人工智能发展趋势的探索铺平了道路。
Mar, 2024
使用大型语言模型作为认知模型具有潜力,但需要解决多个重要挑战。本文提出了一种新颖的方法,通过利用计算等效任务和特定任务分布,增强大型语言模型作为决策模型的效用,并展示了在决策制定中的应用。结果表明,预训练大型语言模型在生态有效的算术数据集上可以更好地预测人类行为,显示了与传统认知模型之间的强关联。但将大型语言模型用作认知模型时,需要通过去除预训练数据的实验来进行详细研究。
May, 2024
利用贝叶斯统计模型,研究了大型语言模型(LLMs)在人类行为预测方面的类人特性,发现LLMs不能准确捕获人类数据的各项细节,但在聚合和条件水平的预测方面可以有效适配人类数据,显示出某些不同的方法可以使其得到充分的分布式预测。
Jun, 2024
本研究解决了大型语言模型(LLMs)与人类决策之间的对齐问题,特别是受到顺序偏差影响的相似性判断。通过复现经典的人类研究,本研究揭示了不同设定下LLMs展现出类人顺序效应偏差的现象,这为LLM基础应用的设计和开发提供了重要的启示。
Aug, 2024