大型语言模型的意义与感受:生成人工智能中潜在状态的可观测性
本研究使用控制的心理语言学实验方法,研究神经网络语言模型对句法状态的递增表示程度,发现LSTM序列模型在训练大型数据集时能够对文本中的广泛句法状态进行有效的表示,而对小型数据集的训练效果不如递归神经网络(RNNG)。
Mar, 2019
从预训练模型中提取出期望的行为,同时避免非期望的行为,重新定义了NLP并改变了我们与计算机的交互方式。尽管有越来越多的基准测试来衡量任务性能,但我们缺乏关于语言模型表现的解释,这些解释使它们首次完成这些任务成为可能。我们呼吁进行系统性的努力,将语言模型行为分解为解释跨任务性能的类别,以指导机制性解释,并帮助未来的分析研究。
Jul, 2023
机器能否理解自然语言?该研究评估了人工智能生成型大型语言模型(LLMs)的最新发展,批评了把机器语言表现仅视为语法操作和模拟理解的传统哲学假设,并强调了将自然语言理解归因于最先进的LLMs的关键条件,认为LLMs不仅仅使用语法,还使用语义,理解不是模拟而是复制,同时确定了它们如何给予语言表达的意义基础。
Oct, 2023
当前大型语言模型(LLMs)在生成符合语法、流畅的文本方面无与伦比。这篇论文针对LLMs的能力进行了辩论,并通过批判性评估三个经常在批评中出现的观点来展示LLMs仍需更多细化。其次,文章从实证和理论的角度提出了对LLMs中“真正”的理解和意向性的实用观点,并讨论了在何种情况下将心理状态归因于LLMs对于这一日益重要的技术在社会中具有实用的哲学背景。
Oct, 2023
通过研究大型语言模型在人机交互中的应用,本文探讨了理解机器生成行为的能力,特别是在承认他人心理状态方面,发现大型语言模型缺乏对无关紧要或微小变化的不变性。
Jan, 2024
对于LLMs的研究表明它们具有语义基础和生成文本的意义理解能力,并且通过应用心灵哲学和语言的含义理论的核心假设,发现LLMs在功能性、社会性和因果性的语义基础中都呈现基本证据,并发展出世界模型。因此,LLMs并非随机模仿者或语义僵尸,而至少在初级情况下已经理解了它们所生成的语言。
Feb, 2024
通过对大型语言模型的解释性、因果干预方法的证据,以及多模态和模块化扩展,最近关于意识最低标准的争议以及在大型语言模型研究中的保密性和可重复性方面的担忧的讨论,该文讨论了大型语言模型及其对人类认知建模的相关性。
May, 2024
用各种语言模型和不同的模型大小、微调方法和提示设计进行广泛的基准测试,研究了心理状态表征的鲁棒性和记忆问题,并首次研究了提示变化对心智任务的探测性能的影响。结果表明,模型对他人信念的内部表征质量随模型大小和微调的增加而提高。此外,我们证明了模型的表征对提示的变化非常敏感,即使这些变化本应有益。最后,通过引导模型的激活,成功改善了模型的推理性能,无需训练任何探测器。
Jun, 2024
该研究论文主要讨论了关于大型语言模型(LLMs)的语言能力的关键问题,指出基于语言完整性和数据完整性的两个无根据的假设导致了关于LLMs能力的夸大和误导性说法,同时通过非行动方法论的角度提出了存在于LLMs中的三个缺失因素,即具身性、参与度和不稳定性,这些缺失因素使得LLMs在当前的架构中无法成为类似于人类的语言代理。
Jul, 2024
这篇论文探讨了大型语言模型(LLMs)如ChatGPT是否具有思维,特别关注它们是否拥有包括信念、欲望和意图在内的真实民间心理。我们通过调查内部表征和行为倾向这两个关键方面来探讨这个问题。首先,我们调查了各种哲学理论,包括信息论、因果论、结构论和目的论账户,认为LLMs满足每个账户提出的关键条件。我们利用机器学习中的最新可解释性研究来支持这些主张。其次,我们探讨LLMs是否展示了执行行为的坚实倾向,这是民间心理的一个必要组成部分。我们考虑了两个著名的哲学传统,即解释主义和表征主义,以评估LLM的行为倾向。虽然我们发现有证据表明LLMs在某些标准下可能具备思维的特征,特别是在博弈论环境中,但我们得出的结论是,数据仍然不具有说服力。此外,我们回答了对LLM民间心理的几个怀疑挑战,包括感知基础、“随机鹦鹉”论证以及对记忆的担忧等。我们的论文有三个主要观点。第一,LLMs确实具有坚实的内部表征。第二,是否LLMs具有坚实的行为倾向还有一个未解答的问题。第三,对LLM表征的现有怀疑挑战在哲学上经不起推敲。
Jun, 2024