技术与意识
该论文研究了大型语言模型是否具有自我意识,从神经科学的角度出发,作者认为这一观点难以被证实,因为这种模型缺少与哺乳动物意识密切相关的丘脑皮质系统的关键特征,且这些模型的输入缺乏与我们周围世界的感官接触特征的具体信息。作者认为,意识存在于 “皮肤在游戏中” 的情境中,而目前的人工智能系统尚未具备这一特征。
Jun, 2023
对于最近有人声称基于 Transformer 模型体系结构的预训练语言模型 LaMDA 具有感性的争论中,我们认为这种语言模型不能具有感性或意识,LaMDA 没有表现出其他类似模型的进展,我们通过集成信息理论分析变压器结构来证明这一点,我们认为意识的主张是 NLP 报道中使用人类描述语言的趋势的一部分,无论这些主张的真实性如何,都需要考虑语言建模的进展和相关的伦理问题。
Nov, 2022
当前和近期 AI 系统是否会具备意识是一个受到科学界关注和公众担忧的话题。本报告提出并举例了一种严格的和以实证为基础的 AI 意识研究方法,即在我们最有支持的神经科学意识理论的指导下,对现有 AI 系统进行详细评估。我们调查了几个著名的科学意识理论,包括循环处理理论、全局工作空间理论、高阶理论、预测处理和注意图式理论。根据这些理论,我们以计算术语阐明了意识的 “指示性属性”,从而可以评估 AI 系统是否具备这些属性。我们利用这些指示性属性评估了几个最近的 AI 系统,并讨论了未来系统如何实现它们。我们的分析表明目前没有任何 AI 系统具备意识,但也表明建立意识的 AI 系统并没有明显的障碍。
Aug, 2023
讨论大型语言模型是否可能有感知或意识,根据意识科学领域的主流假设,目前模型存在很多意识问题,例如缺乏循环处理、全局使用空间和统合愿景等。然而,这些问题将在未来十年内被克服。因此,目前的大型语言模型不太可能具有意识,但是我们应该认真考虑到大型语言模型的扩展和后继模型未来可能具有意识。
Mar, 2023
这篇论文调查了来自信息理论、量子物理学、认知心理学、生理学和计算机科学等不同学科的主要意识理论分支,旨在用计算的角度来桥接这些理论,同时探讨了意识的现有评估指标和当前计算模型具备意识的可能性。突破意识之谜可能是构建具有计算机智能的通用人工智能的重要一步。
Sep, 2023
人工意识是否理论上可行?是否可信?如果是,技术上是否可行?为了在这些问题上取得进展,有必要奠定一些基础,明确人工意识产生的逻辑和经验条件以及相关术语的含义。我们的首要目标是回顾人工意识领域中出现的主要理论问题,并在此基础上提出在多维度模型中评估人工意识问题的建议。尽管面临诸多挑战,我们概述了一种研究策略,展示了我们提出的 “意识” 的可行性在人工系统中得以实现。
Mar, 2024
从进化的角度分析了开发人工意识的问题,以人类大脑的进化和与意识的关系作为参考模型,揭示了人脑的结构和功能特征,认为现有的人工智能研究应该考虑这些特征,同时提出了在开发具有意识处理能力的系统时应从脑部特征中汲取灵感的策略。
Apr, 2024