通过神经科学视角探讨人工意识的可行性
通过神经科学发现,活性推理是提升机器人算法在适应性、鲁棒性、灵活性、基础理解、安全交互等方面的潜在解决方案,通过模拟实际机器人平台的研究实验,揭示了机器人感知上的挑战和限制。
May, 2021
研究人工智能中对大规模预训练语言模型是否在任何重要意义上可以称为“理解”语言,以及对应的关键问题和新的智能领域的发展。提出一种新的智能科学来提供关于知识的不同模式,以及它们的优势和限制,以及融合不同形式认知的挑战的见解。
Oct, 2022
讨论大型语言模型是否可能有感知或意识,根据意识科学领域的主流假设,目前模型存在很多意识问题,例如缺乏循环处理、全局使用空间和统合愿景等。然而,这些问题将在未来十年内被克服。因此,目前的大型语言模型不太可能具有意识,但是我们应该认真考虑到大型语言模型的扩展和后继模型未来可能具有意识。
Mar, 2023
当前和近期AI系统是否会具备意识是一个受到科学界关注和公众担忧的话题。本报告提出并举例了一种严格的和以实证为基础的AI意识研究方法,即在我们最有支持的神经科学意识理论的指导下,对现有AI系统进行详细评估。我们调查了几个著名的科学意识理论,包括循环处理理论、全局工作空间理论、高阶理论、预测处理和注意图式理论。根据这些理论,我们以计算术语阐明了意识的“指示性属性”,从而可以评估AI系统是否具备这些属性。我们利用这些指示性属性评估了几个最近的AI系统,并讨论了未来系统如何实现它们。我们的分析表明目前没有任何AI系统具备意识,但也表明建立意识的AI系统并没有明显的障碍。
Aug, 2023
大型语言模型展现出与人类理论心智联系紧密的特征,与人脑大脑网络中的神经元相似,通过类似方法检验了嵌入在语言模型中的人工神经元对他人信念的代表能力,揭示了模型与人脑神经元之间的相似之处。
Sep, 2023
尽管大型语言模型在人工智能研究中广泛使用,但其在模型具象问题上的探讨仍未得到充分挖掘,这使它们与感知直接影响物理动作的机器人具象系统相区别。本研究通过对人类关于语言基本空间构建模块的内隐直觉是否被大型语言模型有效捕捉来进行了调查。我们借鉴早期感知运动经验中发展的空间认知基础的见解,通过再现三个心理语言学实验来引导我们的探索。令人惊讶的是,模型输出与人类反应之间出现了相关性,揭示了在没有具体联系到具象经验的情况下的适应能力。值得注意的区别包括极化的语言模型反应和视觉语言模型中降低的相关性。本研究对于深入理解语言、空间经验和大型语言模型所进行的计算之间的相互作用做出了贡献。
Feb, 2024
人工意识是否理论上可行?是否可信?如果是,技术上是否可行?为了在这些问题上取得进展,有必要奠定一些基础,明确人工意识产生的逻辑和经验条件以及相关术语的含义。我们的首要目标是回顾人工意识领域中出现的主要理论问题,并在此基础上提出在多维度模型中评估人工意识问题的建议。尽管面临诸多挑战,我们概述了一种研究策略,展示了我们提出的“意识”的可行性在人工系统中得以实现。
Mar, 2024
从进化的角度分析了开发人工意识的问题,以人类大脑的进化和与意识的关系作为参考模型,揭示了人脑的结构和功能特征,认为现有的人工智能研究应该考虑这些特征,同时提出了在开发具有意识处理能力的系统时应从脑部特征中汲取灵感的策略。
Apr, 2024
本文探讨思维是否依赖于感官能力的议题,提出可以存在纯思考者的观点,同时指出在缺乏感官能力的情况下思维存在的显著局限。论文也驳斥了认为大型语言模型无法思考的论点,并利用相关研究结果讨论感官基础如何影响认知能力。
Aug, 2024
本研究解决了意识的难题,探讨了生物系统如何自我组织,从未标记的感官信息中根据价值和特定需求进行层次解释。我们提出了一个数学模型,揭示了意识功能与生物体干预世界以实现内稳态和繁殖目标之间的联系,这一发现为意识的科学奠定了基础,强调现象性意识对于人类功能的重要性。
Sep, 2024