本文提出了一种基于理性意义构建的计算框架来实现语言驱动的思维,将语言和概率性推理的概率语言模型结合以构建适应上下文的符号推理模型,同时开发了统一的通用推理接口以实现全面的常识推理。
Jun, 2023
本文通过在英语材料的专家评估集上进行零 - shot 提示,进行了人类和语言模型在七个语用现象上的精细比较,发现最大的模型可以实现高精度和匹配人类错误模式,同时发现证据表明模型和人类对相似的语言提示敏感,旨在探讨人类语用处理机制和语言模型之间的关系。
Dec, 2022
讨论了自然语言理解的三种观点(作为映射、作为可靠性和作为表示),认为虽然行为可靠性对于理解来说是必要的,但内部表示是足够的,提出了刻画有限的有效的语言和多模型的挑战,质疑了范式缩放的极限。最后,说明了如何通过作为表示来推进对理解的科学研究。
Oct, 2022
当前大型语言模型(LLMs)在生成符合语法、流畅的文本方面无与伦比。这篇论文针对 LLMs 的能力进行了辩论,并通过批判性评估三个经常在批评中出现的观点来展示 LLMs 仍需更多细化。其次,文章从实证和理论的角度提出了对 LLMs 中 “真正” 的理解和意向性的实用观点,并讨论了在何种情况下将心理状态归因于 LLMs 对于这一日益重要的技术在社会中具有实用的哲学背景。
Oct, 2023
本研究旨在探讨大型语言模型是否能够成为认知模型,并发现通过在心理实验数据上微调这些模型,它们能够提供准确的人类行为表示,甚至在两个决策制定领域中表现比传统的认知模型更好。此外,我们展示了它们的表示含有模拟个体受试者行为所需的信息,并演示了在多个任务上进行微调的能力使得大型模型能够预测以前从未见过的任务中人类行为,这表明预先训练的大型模型可以被改进为通用认知模型,从而开辟了颠覆认知心理学和行为科学的新研究方向。
我们提出了一个基于先验推理和学习语义结合的思想来描述场景的模型,成功率高于现有技术。
Apr, 2016
本文考察了大型语言模型对语言习得中的概率关系和上下文敏感性建模的能力,并针对基于强度先验条件的语境下的 pragmatism utterances 进行了阈值估计实验。结果表明该方法成功地推导出了一些复杂 pragmatic utterances 相关的人类类似信息分布,但对于否定的组成较为困难。
May, 2023
人类语言在思维和学习结构方面发挥重要作用。本文提出了一个挑战测评与深度学习语言模型相比人类表现的基准,并通过提供结构化符号推理模块来拓展深度学习语言模型,以使其更符合人类推理。实验表明,在语言表达能力、泛化能力等方面,人类远远优于 LLMs,这说明混合 AI 模型具有更接近人类推理的潜力。
May, 2022
大型语言模型在心理语言学中扮演重要角色,因为它们是实用的工具、比较性的例证,并对重新审视语言和思维的关系具有哲学意义。
Feb, 2023
今天的大型语言模型 (LLMs) 可以生成连贯的,符合语法的、有意义的文本段落,但在如人类思维一样的实际语言使用中,大多数测试需要功能语言能力,从认知神经科学的证据中,我们显示出 LLMs 显示出令人印象深刻(虽然不完美)的正式语言能力的任务,但在需要功能能力的许多测试中失败了。
Jan, 2023