论机器理解
本文旨在探讨 “智能机器” 是否有能力理解人类语言,其中涉及了语法和语义之间的关系,指出了语义对于讨论建立 “有意识的机器” 这一问题的不可避免性,并得出结论:在当前技术发展的状态下,将智能视为一种任务解决工具,无需将理解归于机器。
Jul, 2022
本文对比了人类和机器如何表现单词的意义,认为自然语言处理系统在某些方面可以作为人类单词相似性的成功模型,但在其他方面还有不足。当前的模型过度关注大型语料库中基于文本的模式,而与人们通过单词表达的愿望、目标和信念联系过于弱。我们讨论了更有前途的基于视觉和行动本质的自然语言处理系统,并认为这些系统将更成功地实现更类似于人的概念基础单词意义。
Aug, 2020
研究人工智能中对大规模预训练语言模型是否在任何重要意义上可以称为 “理解” 语言,以及对应的关键问题和新的智能领域的发展。提出一种新的智能科学来提供关于知识的不同模式,以及它们的优势和限制,以及融合不同形式认知的挑战的见解。
Oct, 2022
语言是理解和交流情境的关键,而语言处理系统使用类似人脑的神经网络以及查询注意力等方法来提高其能力,但当前的模型主要集中在内部语言任务上,限制其理解情境的能力,因此需要未来的模型应用认知神经科学和人工智能来扩展理解任务。
Dec, 2019
一些所谓 `人工智能 ' 的辩护者认为机器可以理解语言。特别是,Søgaard 在这篇论文中提出了这样的论点,即(1)哪里有语义,就会有理解,(2)机器不仅能够进行所谓的` 推理语义 ',甚至可以(通过传感器的输入帮助)` 学习 ' 指称语义。然而,我们证明他的观点是错误的,因为他未充分重视语言在人类和硬盘或书籍中存储时出现的差异。
Jul, 2023
机器能否理解自然语言?该研究评估了人工智能生成型大型语言模型 (LLMs) 的最新发展,批评了把机器语言表现仅视为语法操作和模拟理解的传统哲学假设,并强调了将自然语言理解归因于最先进的 LLMs 的关键条件,认为 LLMs 不仅仅使用语法,还使用语义,理解不是模拟而是复制,同时确定了它们如何给予语言表达的意义基础。
Oct, 2023
本文将意义基础理论与 AGI 的数学形式结合起来,旨在提供一种全面的有关意义、交流和符号出现的机制性解释。此次综合研究在 AGI 和关于语言本质的更广泛辩论中具有重要意义,它将语用学、逻辑真值条件语义学、Peircean 符号学和赋能认知的可计算模型统一起来,涉及传统上难以进行机制性解释的现象。通过考察一台机器生成有意义话语或理解人类意义的条件,我们确定了目前的语言模型并不具有与人类相同的意义理解,也不打算表达任何我们可以归于它们响应的意义。为了解决这个问题,我们提出了模拟人类情感和优化模型以构建弱表示的解决方案。我们的发现揭示了意义和智能之间的关系,并探讨了如何构建能够理解和表达意义的机器。
Apr, 2023
本文综述认知科学的进展,提出了人工智能领域需要实现的目标和面临的挑战,即建立支持解释和理解的世界因果模型,以及将学习基于物理和心理直觉理论,使用组合性和学习来学习以适应新的任务和情况
Apr, 2016