机器能否理解自然语言?该研究评估了人工智能生成型大型语言模型 (LLMs) 的最新发展,批评了把机器语言表现仅视为语法操作和模拟理解的传统哲学假设,并强调了将自然语言理解归因于最先进的 LLMs 的关键条件,认为 LLMs 不仅仅使用语法,还使用语义,理解不是模拟而是复制,同时确定了它们如何给予语言表达的意义基础。
Oct, 2023
在本研究中,我们分析了当代大型语言模型对人类概念及其结构的理解程度,并讨论了发展具备概念意识的语言模型的方法,包括在不同阶段引入预训练和利用现有语言模型输出的简化方法。通过证明概念意识语言模型的初步结果,我们证明了其能够更好地符合人类直觉,提高了预测的稳定性,展示出了概念意识语言模型的潜力。
Nov, 2023
本文旨在提倡对大型语言模型及其相关系统的实际工作进行重新审视,追求更高的科学精度以引领关于人工智能的哲学探索和公众话语。
Dec, 2022
本文研究大语言模型在自然语言处理中的局限性,特别是无法学习一些基本语义属性,如语义蕴涵和一致性,以及不能学习超越 Borel 层次结构的概念,这对语言模型的语言理解能力产生了严重限制。
Jun, 2023
本文讨论大型语言模型在概念导向深度学习方面的应用,以及利用多模态语言模型进行概念提取、图谱提取和概念学习等方面的研究。同时,本文认为,虽然 LLM 在概念导向深度学习方面的应用颇具价值,但作为人工智能聊天机器人的应用, 它更具有实用价值。
人工智能,自然语言处理,大型语言模型和科学模型在语言方面的应用和发展的研究。
这篇论文研究 LLMs 在理解语境方面的能力,通过实验发现目前的 LLMs 模型在完成只需要二进制推断的对话时表现平庸,需要进一步研究如何使得 LLMs 适应更贴合人类意图的对话模式。
Oct, 2022
该论文调查了大型语言模型的八个潜在问题,包括其预测能力的增强,不可预测的行为的出现,对外部世界的学习和使用表示,行为引导技术的不可靠性,内部工作方式的解释困难性,性能上界不是人类任务表现,不一定表达其创建者或网络文本编码的价值观,与 LLMs 的简短交往经常是误导性的。
Apr, 2023
通过分析行为和神经成像数据,本研究揭示了大型语言模型(LLMs)中的对象概念表示与人类的相关性,证明了 LLMs 和多模式 LLMs 已经发展出类似于人类的概念性对象表示,该研究推动了对机器智能的理解并为开发更类似人类的人工认知系统提供了参考。
Jul, 2024
当前大型语言模型(LLMs)在生成符合语法、流畅的文本方面无与伦比。这篇论文针对 LLMs 的能力进行了辩论,并通过批判性评估三个经常在批评中出现的观点来展示 LLMs 仍需更多细化。其次,文章从实证和理论的角度提出了对 LLMs 中 “真正” 的理解和意向性的实用观点,并讨论了在何种情况下将心理状态归因于 LLMs 对于这一日益重要的技术在社会中具有实用的哲学背景。