可计算人工通用智能
软件的效应取决于解释它的硬件,但对于人工智能(AI)来说,这种做法对于建立人工普通智能(AGI)或人工超级智能(ASI)而言是不理想的。本文提出一个基于激励认知和泛计算的方法来解决这个问题,探讨了解释器选择对于解释结果的影响,明确给出了 AGI 和 ASI 的定义和实现方式。
Feb, 2023
本文将意义基础理论与 AGI 的数学形式结合起来,旨在提供一种全面的有关意义、交流和符号出现的机制性解释。此次综合研究在 AGI 和关于语言本质的更广泛辩论中具有重要意义,它将语用学、逻辑真值条件语义学、Peircean 符号学和赋能认知的可计算模型统一起来,涉及传统上难以进行机制性解释的现象。通过考察一台机器生成有意义话语或理解人类意义的条件,我们确定了目前的语言模型并不具有与人类相同的意义理解,也不打算表达任何我们可以归于它们响应的意义。为了解决这个问题,我们提出了模拟人类情感和优化模型以构建弱表示的解决方案。我们的发现揭示了意义和智能之间的关系,并探讨了如何构建能够理解和表达意义的机器。
Apr, 2023
本文提供了 Universal Artificial Intelligence (UAI) 理论的非正式概述,讨论了智能的特征,一些社会问题和 UAI 的过去和未来,并介绍了代理人 AIXI 和其近似算法的发展和实验研究。
Feb, 2012
通过利用先进的人工智能进行形式验证和机械解释,我们描述了人类安全繁荣与强大人工通用智能(AGIs)共存的路径,并主张这是唯一能确保安全可控 AGI 的途径,提出了一系列能推动这个积极结果的挑战问题,并邀请读者一同参与这项工作。
Sep, 2023
人工通用智能(AGI)尚不存在,但鉴于人工智能技术发展的速度,预计在未来大约二十年内将达到人类水平的智能水平。之后,许多专家预计它将远远超过人类智能,并且迅速超过。超级智能 AGI 的前景对人类构成了存亡风险,因为目前没有可靠的方法来确保 AGI 的目标与人类目标保持一致。作者借鉴公开可用的预测者和观点数据,考察专家和非专家对 AGI 风险的感知。研究结果表明,与其他存在风险相比,人们对 AGI 造成的世界灾难或灭绝的感知风险更大。与其他存在威胁相比,AGI 的感知风险在过去一年中增加的速度也更快(例如核战争或人为引起的气候变化)。专家和非专家一致认为 AGI 是一种紧迫的存亡风险,但目前对于这种共识的基础仍然不清楚。
Nov, 2023
人工通用智能(AGI)是构建 “思考机器” 的愿景,与 “狭义人工智能” 方法形成鲜明对比。本研究指出了纯统计方法无法实现 AGI,同时确定了实现类似人类适应能力和自主学习所需的关键认知能力,并总结了阻碍 AGI 进展的社会技术因素。
Aug, 2023
本文试图对 AGI 中的概念 “meaning” 和 “knowledge” 进行严格的规范化定义,以便在实际实现中能够在上下文中处理相关的认知概念。
Jan, 2022