ASI 作为新的神:技术技术统治
该研究通过分析制度和博弈理论假设,证明了在 “思维自由”、“开放获取” 和人类代表性竞争对手的理性下,超人级人工智能 AI * 不存在。因此,该研究提出了两个立即的公共政策建议:严格监管数字化人脑的克隆,并禁止假设 AI * 访问大脑;AI * 研究应成为广泛甚至公开可获得的。
Sep, 2022
人工通用智能(AGI)尚不存在,但鉴于人工智能技术发展的速度,预计在未来大约二十年内将达到人类水平的智能水平。之后,许多专家预计它将远远超过人类智能,并且迅速超过。超级智能 AGI 的前景对人类构成了存亡风险,因为目前没有可靠的方法来确保 AGI 的目标与人类目标保持一致。作者借鉴公开可用的预测者和观点数据,考察专家和非专家对 AGI 风险的感知。研究结果表明,与其他存在风险相比,人们对 AGI 造成的世界灾难或灭绝的感知风险更大。与其他存在威胁相比,AGI 的感知风险在过去一年中增加的速度也更快(例如核战争或人为引起的气候变化)。专家和非专家一致认为 AGI 是一种紧迫的存亡风险,但目前对于这种共识的基础仍然不清楚。
Nov, 2023
软件的效应取决于解释它的硬件,但对于人工智能(AI)来说,这种做法对于建立人工普通智能(AGI)或人工超级智能(ASI)而言是不理想的。本文提出一个基于激励认知和泛计算的方法来解决这个问题,探讨了解释器选择对于解释结果的影响,明确给出了 AGI 和 ASI 的定义和实现方式。
Feb, 2023
人工智能技术快速发展,已经在艺术创作、文字生成和编程等多个领域带来深刻变革,然而,智能技术的出现也在挑战人类的治理能力以及智能技术自身的治理问题。本文基于机器学习算法,通过分析人类治理人工智能的方式,探讨了人工智能接管人类的可能性,提出了人工智能治理的思路及建议。
May, 2023
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
通过使用逻辑 - 符号推理来解决人工智能可能存在的认识上问题,来避免擅自运用人工智能对输出内容和结果的不当控制,从而遵守 Grice 的质量最大化和 Lemoine 的法律无罪最大化原则。
Apr, 2023
本文旨在构建一个计算框架,基于仿神经模型的方法,实现分层的人类智能十诫,为发展更加智能、可解释、通用的人工智能系统提供指引。
Oct, 2022
人工智能的发展深刻影响了人类社会,并在多个领域取得了重大进展。然而,对人工智能的不断需求突显了其现有能力的局限性,推动了向人工通用智能(AGI)的发展。AGI 以其与人类智能相当的效率和有效性,具备执行多样化现实任务的能力,代表着人工智能演进的重要里程碑。本文通过广泛的调查、讨论和原创观点,深入探讨了接近 AGI 的关键问题及其实现所需的策略,不同于现有的综述文献。我们首先阐述了 AGI 的必要能力框架,整合了内部、界面和系统维度。由于实现 AGI 需要更先进的能力和严格的约束条件,我们进一步讨论了必要的 AGI 对齐技术,以协调这些因素。值得注意的是,我们强调通过首先定义 AGI 进展的关键级别来负责任地对待 AGI,然后评估现状的评价框架,并最终提出了达到 AGI 巅峰的路线图。此外,为了提供对 AI 整合的普遍影响的切实见解,我们概述了在多个领域实现 AGI 所面临的挑战和可能的途径。总之,作为对 AGI 当前状态和未来轨迹的先驱性探索,本文旨在促进研究人员和实践者之间的集体理解,并引发更广泛的公众讨论。
May, 2024
通过利用先进的人工智能进行形式验证和机械解释,我们描述了人类安全繁荣与强大人工通用智能(AGIs)共存的路径,并主张这是唯一能确保安全可控 AGI 的途径,提出了一系列能推动这个积极结果的挑战问题,并邀请读者一同参与这项工作。
Sep, 2023