语言理解研究在未能将语言与其所描述的物理世界和所促进的社会互动相联系的情况下受到阻碍,因此现在的成功表示学习方法需要与涉及语言的更广泛的物理和社会背景的研究相结合来解决沟通的更深层次的问题。
Apr, 2020
本文研究了目前最先进的神经语言表示在物理常识推理方面的表现,结论显示,尽管神经语言模型在各种自然语言推理任务上表现出色,但在物理常识方面仍然只能学习到现有的明确规则和关联性。
Aug, 2019
通过使用机器学习及自然语言处理技术,研究语言习得过程,探讨如何让模型学习在有限的语言输入下获取语言知识,以验证关于人类语言学习本质的假说。
Aug, 2022
本文探讨了计算机与程序员所涉及的类似语言应用程序所涉及的模式,并旨在调整我们的问题以更好地说明上下文、自我意识和具体化。
Apr, 2016
研究表明预先训练的神经语言模型中的预测至少部分地由意义的动态表示和实体状态的隐含模拟支持,并且这种行为可以仅依靠文本作为训练数据来学习。
Jun, 2021
研究自然语言理解在人工智能领域的挑战,结合认知科学、 心理学、思维哲学和认知语言学的见解,评估目前的方法和挑战。
Jun, 2022
语言是理解和交流情境的关键,而语言处理系统使用类似人脑的神经网络以及查询注意力等方法来提高其能力,但当前的模型主要集中在内部语言任务上,限制其理解情境的能力,因此需要未来的模型应用认知神经科学和人工智能来扩展理解任务。
Dec, 2019
机器能否理解自然语言?该研究评估了人工智能生成型大型语言模型 (LLMs) 的最新发展,批评了把机器语言表现仅视为语法操作和模拟理解的传统哲学假设,并强调了将自然语言理解归因于最先进的 LLMs 的关键条件,认为 LLMs 不仅仅使用语法,还使用语义,理解不是模拟而是复制,同时确定了它们如何给予语言表达的意义基础。
Oct, 2023
通过一系列的实验,我们评估了当前基于视觉的大型语言模型在直觉物理、因果推理和直观心理领域的表现。我们的研究结果表明,尽管这些模型在处理和解释视觉数据方面表现出显著的能力,但在这些领域仍然不如人类。这些模型对物理定律和因果关系有基本的理解,但缺乏更深入的洞察力 - 人类认知的一个关键方面。此外,在需要直觉心理理论的任务中,这些模型完全失败。我们的结果强调了将更强大的理解因果关系、物理动力学和社会认知机制整合到现代基于视觉的语言模型中的必要性,并指出了认知启发式评估标准的重要性。
Nov, 2023
本文研究了在没有辅助的情况下,自然语言处理中的语言模型是否能够理解文本的内涵。研究发现,当文本满足语义透明性时,assertions 可以使系统模拟语义关系,并保留原本等价的关系。但对于某些语言类别而言,表达在不同上下文中可以有不同的含义,这时模拟会变得难以计算。最后,作者提出了这种模拟在计算机语言和自然语言之间的差异,并探讨了其在语义模态和其他语义关系中的应用。总之,未建立在基础语言上的模型在理解语义方面存在本质上的局限。
Apr, 2021