Oct, 2023

通过元认知提示违背预期减少大型语言模型中心理理论预测误差

TL;DR大语言模型(LLMs)在心灵理论(ToM)任务中表现出令人信服的水平,在人际认知中将不可观察的心理状态归因于他人是人类社会认知的关键之一,也在人与人工智能(AI)之间的委托关系中可能同样重要。本文探讨了一种发展心理学中研究的期望违反(VoE)机制如何通过利用出现的 ToM 便利来减少 LLM 对用户预测中的错误,并引入了一种 extit {元认知提示} 框架,将 VoE 应用于 AI 导师的背景中。通过存储和检索在 LLM 对用户的预期被违反的情况下得出的事实,我们发现 LLMs 能够以类似人类学习理论的方式了解用户。最后,我们讨论了建模用户心理的潜在风险和增强机会,并提出了减少风险的方法以及未来研究的可能方向。