构建一个能够理解的机器的方法和机器理解程度的实验方法和建议。
May, 2024
一些所谓 `人工智能 ' 的辩护者认为机器可以理解语言。特别是,Søgaard 在这篇论文中提出了这样的论点,即(1)哪里有语义,就会有理解,(2)机器不仅能够进行所谓的` 推理语义 ',甚至可以(通过传感器的输入帮助)` 学习 ' 指称语义。然而,我们证明他的观点是错误的,因为他未充分重视语言在人类和硬盘或书籍中存储时出现的差异。
Jul, 2023
机器能否理解自然语言?该研究评估了人工智能生成型大型语言模型 (LLMs) 的最新发展,批评了把机器语言表现仅视为语法操作和模拟理解的传统哲学假设,并强调了将自然语言理解归因于最先进的 LLMs 的关键条件,认为 LLMs 不仅仅使用语法,还使用语义,理解不是模拟而是复制,同时确定了它们如何给予语言表达的意义基础。
Oct, 2023
人类和人工智能是否能共享概念并进行交流?《使人工智能变得可理解》展示了意义形而上学的哲学研究如何回答这些问题,Cappelen 和 Dever 利用哲学中的外在主义传统构建了人工智能和人类相互理解的模型,从而改进了哲学传统,给出了有关理论和实践的重要答案,为实现可解释的人工智能迈出了重要的第一步。
Jun, 2024
人工智能在几个关键方面仍然比人类智能有限,如在理解上下文、言外之意和微妙线索方面的能力。本文展望了可能用于缩小人类智能与机器智能差距的机器智能候选方法,重点讨论了当前人工智能技术的不足,以及层次规划和能量基、潜变量方法以及联合嵌入预测架构方法如何帮助弥合这一差距。
Aug, 2023
研究自然语言理解在人工智能领域的挑战,结合认知科学、 心理学、思维哲学和认知语言学的见解,评估目前的方法和挑战。
Jun, 2022
通过提供关于智能的纯功能性黑盒定义以及对相关概念的区分,本研究在人工智能领域提供了一个可观察的、概念上可测试的连续性定义,并指出了在可量化测量方面所面临的挑战。
Dec, 2023
本文探讨了生成式人工智能技术的应用领域和能力,重温了图灵关于 “思考机器” 的概念,分析了机器智能测试的重要性,同时指出人工智能机器展示了智能的多个方面,但也存在相应的疑虑和后果。
研究人工智能中对大规模预训练语言模型是否在任何重要意义上可以称为 “理解” 语言,以及对应的关键问题和新的智能领域的发展。提出一种新的智能科学来提供关于知识的不同模式,以及它们的优势和限制,以及融合不同形式认知的挑战的见解。
Oct, 2022
本研究提供了更清晰的人工智能、自我意识和代理问题之定义,并发展了一种启发式方法测试人工自我意识,同时勾留了哲学或实施上的问题。
Jun, 2023