机器能否理解自然语言?该研究评估了人工智能生成型大型语言模型 (LLMs) 的最新发展,批评了把机器语言表现仅视为语法操作和模拟理解的传统哲学假设,并强调了将自然语言理解归因于最先进的 LLMs 的关键条件,认为 LLMs 不仅仅使用语法,还使用语义,理解不是模拟而是复制,同时确定了它们如何给予语言表达的意义基础。
Oct, 2023
自然语言处理领域对于意义和测量的问题进行了实证研究,本文勾勒了一种理解模型,用于评估当前模型质量测量方法的适应性,并指出不同语言使用情境类型的特点、语言理解是多方面现象,以及理解指标的选择标志了对基准测试和语言处理伦理的考虑的开端。
语言是理解和交流情境的关键,而语言处理系统使用类似人脑的神经网络以及查询注意力等方法来提高其能力,但当前的模型主要集中在内部语言任务上,限制其理解情境的能力,因此需要未来的模型应用认知神经科学和人工智能来扩展理解任务。
Dec, 2019
研究自然语言理解在人工智能领域的挑战,结合认知科学、 心理学、思维哲学和认知语言学的见解,评估目前的方法和挑战。
Jun, 2022
讨论大型语言模型是否可能有感知或意识,根据意识科学领域的主流假设,目前模型存在很多意识问题,例如缺乏循环处理、全局使用空间和统合愿景等。然而,这些问题将在未来十年内被克服。因此,目前的大型语言模型不太可能具有意识,但是我们应该认真考虑到大型语言模型的扩展和后继模型未来可能具有意识。
Mar, 2023
大型语言模型的神经表示与脑成像测量的神经响应非常相似,因此表明该模型可以产生类人的表示。
Jun, 2023
人工智能应用在语言相关任务中表现出巨大潜力,特别是在下一个单词预测领域。我们分析了大型语言模型作为理论信息化目标系统的表示能力与无理论强大机制工具的贡献,并确定了当前开发和利用这些模型中仍然缺失的关键能力。
Jul, 2023
通过随机采样和应用概率置信边界,我们提出了一个测试任何机器或人类是否理解一门主题的框架,其中包括确定问题范围、要求一般能力和避免荒谬答案,但允许某些问题的错误和 “我不知道” 答案。根据我们的框架,目前的大型语言模型不能说理解非平凡领域,但这个框架提供了一个测试理解的实用方法,也是构建理解型人工智能代理的工具。
Jun, 2024
通过一系列的实验,我们评估了当前基于视觉的大型语言模型在直觉物理、因果推理和直观心理领域的表现。我们的研究结果表明,尽管这些模型在处理和解释视觉数据方面表现出显著的能力,但在这些领域仍然不如人类。这些模型对物理定律和因果关系有基本的理解,但缺乏更深入的洞察力 - 人类认知的一个关键方面。此外,在需要直觉心理理论的任务中,这些模型完全失败。我们的结果强调了将更强大的理解因果关系、物理动力学和社会认知机制整合到现代基于视觉的语言模型中的必要性,并指出了认知启发式评估标准的重要性。
Nov, 2023
构建一个能够理解的机器的方法和机器理解程度的实验方法和建议。
May, 2024