意识即学习:通过绑定学习的预测处理系统可能会感知自身意识
该研究论证了强人工智能假说,即机器可以具有意识。它通过证实意识的本质过程是可计算的,建立了意识与技术的联系。这将支持一种新的人工智能形式,即所谓的 “合成意向性”,具有综合、概括、选择和重复意向的能力,但存在一些问题比如反射认知、塞尔的 “中文房间” 以及如何 “理解”“意义” 和 “创造性”。
May, 2016
基于自注意力机制的大型语言模型在语言处理和自然语言本身中取得了惊人的成绩,并且在不同性质的各种任务中也取得了成绩。本文在预测编码框架内提出了一个平均场学习模型,成功地验证了其在分类手写数字和玩具以及真实语言语料库中的有效性。因此,我们的模型为研究语言处理和意想不到的普遍智能的物理和生物对应关系提供了一个起点。
Sep, 2023
大脑通过形成逻辑一致且具有预测能力的现实模型来反映外部世界的因果关系,表现为意识。同时,这篇论文解决了统计模糊性的问题并提供了因果关系的正式概率最大具体规则模型。我们认为大脑从因果关系中进行了所有可能的推理,并证明了所提出的模型具有明确的推理性质:从一致的前提我们推导出一致的结论,从而形成了对感知世界的一致模型。因果关系可以创造出循环可预测属性的固定点。我们考虑了约翰・S・密尔引入的 “自然” 分类,并展示了对象属性的各种固定点形成了外部世界的 “自然” 分类。然后我们考虑了埃莉诺・罗施和鲍勃・雷德引入的 “自然” 类别和因果模型的概念,并证明了我们感知到的对象属性的因果关系固定点形式化了这些概念。如果 “自然” 分类描述了外部世界的对象,而 “自然” 概念描述了对这些对象的感知,那么由 G・托诺尼提出的综合信息理论描述了大脑的 “自然” 概念形成的信息过程,反映了 “自然” 分类。我们认为综合信息提供了高度准确的对象识别能力。此外,本文还提供了一个基于计算机的实验,展示了编码数字的固定点形成。
Dec, 2023
该论文提出了一种统一的网络结构,用于编码人类所学习到的显性知识和潜意识下的隐性知识,并能够同时服务于多种任务,并通过在卷积神经网络中引入隐性知识,进一步提高了各个任务的性能表现。
May, 2021
本文提出了一个计算意识的模型,该模型通过区分环境与主观认知过程来描述注意力、意识和情感等各种过程。通过测试其在通过视觉刺激诱发的各种情绪中的表现,我们发现该模型与关于隐蔽注意力的科学证据一致,并表现出计算道德的特征。
Aug, 2022
本文提出了一个新的生命周期学习的方法,命名为记忆感知突触 (Memory Aware Synapses),它计算神经网络参数的重要性,并根据重要性进行惩罚以防止重要知识被覆盖,这与大脑学习过程的 Hebb 规则有相关性。在物体识别任务和嵌入学习任务中,该方法表现出最先进的性能。
Nov, 2017
在本文中,我们提出了一个统一的框架来解决神经网络在实现人类水平泛化方面的困难,并认为这种组合方法对于实现人类水平泛化是至关重要的。通过从神经科学和认知心理学的丰富研究中获取灵感,并调查机器学习文献中的相关机制,我们确定了一些归纳偏见的组合,让符号信息处理在神经网络中自然地出现。
Dec, 2020
人工智能(AI)是本世纪迅速发展的关键技术之一。然而,使用误差反向传播学习算法训练的深度神经网络在 AI 领域取得的大多数成果已经凸显出一些重要限制,例如计算成本高、难以量化不确定性、缺乏鲁棒性、不可靠性和生物不可行性。解决这些限制可能需要受到神经科学理论启发和指导的方案。其中一种理论称为预测编码(PC),在机器智能任务中表现出有希望的性能,具有令人兴奋的特性,对机器学习社区具有潜在价值:PC 可以模拟大脑不同区域的信息处理,可用于认知控制和机器人学,并具有基于变分推断的坚实数学基础,为某类连续状态生成模型提供了强大的反演方案。希望通过调研有助于这一方向的文献,突出展示 PC 在机器学习和计算智能的未来中可能发挥的多种作用。
Aug, 2023