使用LLMs探索定性研究
本文探讨了人类中心的大型语言模型评估,并提出了心理模型,用例使用价值和认知参与三个研究重点,旨在加速人类中心式大型语言模型评估的进展。
Mar, 2023
在大型语言模型与透明度的讨论中,我们必须考虑不同利益相关者在不同情境下的需求,并构建在人们处理、交互和使用信息方面所了解的经验基础上的透明度方法, 这是一篇关于应对LLM这个新时代带来的人工智能透明度挑战的文章.
Jun, 2023
本文探索大型语言模型在心理学应用中的前沿。大型语言模型如ChatGPT正在改变心理学研究的方式,并在认知与行为心理学、临床与咨询心理学、教育与发展心理学以及社会与文化心理学等多个领域发挥着影响,强调了它们模拟人类认知和行为的潜力。该论文还讨论了这些模型在心理学方面的能力,提供了创新工具用于文献综述、假设生成、实验设计、实验对象选择、数据分析、学术写作和同行评审。然而,尽管大型语言模型对推进心理学研究方法至关重要,但该论文也注意到了其技术和伦理挑战,如数据隐私、在心理学研究中使用大型语言模型的伦理影响以及对这些模型局限性的更深入了解的需要。研究人员应该负责任地在心理学研究中使用大型语言模型,遵守伦理标准,并考虑在敏感领域部署这些技术的潜在后果。总之,这篇文章全面概述了大型语言模型在心理学中的现状,探讨了潜在的好处和挑战。它号召研究人员在充分利用这些模型的优势的同时,负责任地解决相关风险。
Jan, 2024
本研究探讨了大型语言模型(LLMs)在生成人工数据中的不断扩大的作用。尽管人工数据能够与人类性能相匹配,但本文揭示了显著的潜在差异,尤其是在复杂任务中,LLMs常常错过对内在人类生成内容的微妙理解。该研究批判性地考察了多样化的LLM生成数据,并强调了在数据创建和使用LLMs时遵循道德实践的必要性。它凸显了解决LLM生成内容中产生的偏差和人为因素对于未来研究和开发的重要性。所有数据和代码都可在我们的项目页面上获得。
Jan, 2024
通过文献综述和第一手实验,本文研究了大型语言模型(LLMs)的潜力。尽管LLMs具有成本效益和高效性等优点,但也存在着诸如提示调优、偏见和主观性等挑战。该研究通过利用LLMs进行定性分析的实验提供了新的见解,强调了成功和限制。此外,本文还讨论了缓解挑战的策略,如优化提示技术和利用人类专业知识。我们的工作旨在将LLMs有机地融入人机交互数据工作,并积极促进其负责任的应用,以此回应关于LLMs在研究中负责任应用的持续对话。
Apr, 2024
该研究试验了大型语言模型(LLMs)在支持主题分析上的作用,发现人工研究者与两个LLMs在对澳大利亚Robodebt丑闻媒体报道的片段进行主题分类时存在有趣的重叠和差异,表明LLMs在支持对话和主题分析方面可以发挥作用,但应用中应该作为人类解释的补充,同时该研究还介绍了一种新颖的基于卡片的设计工具箱,以进一步研究LLMs作为分析工具的潜力。
May, 2024
本研究探讨了大型语言模型(LLMs)在社会科学和人文学科中的定性分析应用,填补了这一领域的研究空白。通过对2016年瑞典罗姆人移民相关数据集的主题分析,验证了人类智慧与AI的高效性和可扩展性相结合的潜力。研究发现,LLMs在定性研究中的应用具有显著的优势,同时也暴露出一些局限性,为未来研究提供了重要的方向。
Aug, 2024
本研究解决了大型语言模型(LLMs)与人类决策之间的对齐问题,特别是受到顺序偏差影响的相似性判断。通过复现经典的人类研究,本研究揭示了不同设定下LLMs展现出类人顺序效应偏差的现象,这为LLM基础应用的设计和开发提供了重要的启示。
Aug, 2024
本研究解决了传统用户研究在评估可解释人工智能工具方面成本高、耗时长、难以扩展的问题。我们提出利用大型语言模型(LLMs)替代人类参与者,进行关于对照和因果解释的比较研究。研究发现LLMs能够有效再现原研究的主要结论,且在可扩展性和成本效益方面展现出潜力,为定性可解释人工智能评估提供了一种新的解决方案。
Oct, 2024
本研究探讨了大型语言模型(LLMs)在社会科学研究中作为人类替代品的使用问题,指出LLMs与人类的根本差异及其在模拟人类行为时的局限性。研究发现,除非通过大量人类行为数据进行微调,否则LLMs在模拟人类行为分布方面几乎都存在失败,提醒研究人员谨慎使用LLMs来研究人类行为。
Oct, 2024