超人工智能的政治经济学
人工通用智能(AGI)尚不存在,但鉴于人工智能技术发展的速度,预计在未来大约二十年内将达到人类水平的智能水平。之后,许多专家预计它将远远超过人类智能,并且迅速超过。超级智能 AGI 的前景对人类构成了存亡风险,因为目前没有可靠的方法来确保 AGI 的目标与人类目标保持一致。作者借鉴公开可用的预测者和观点数据,考察专家和非专家对 AGI 风险的感知。研究结果表明,与其他存在风险相比,人们对 AGI 造成的世界灾难或灭绝的感知风险更大。与其他存在威胁相比,AGI 的感知风险在过去一年中增加的速度也更快(例如核战争或人为引起的气候变化)。专家和非专家一致认为 AGI 是一种紧迫的存亡风险,但目前对于这种共识的基础仍然不清楚。
Nov, 2023
人工智能技术快速发展,已经在艺术创作、文字生成和编程等多个领域带来深刻变革,然而,智能技术的出现也在挑战人类的治理能力以及智能技术自身的治理问题。本文基于机器学习算法,通过分析人类治理人工智能的方式,探讨了人工智能接管人类的可能性,提出了人工智能治理的思路及建议。
May, 2023
人工通用智能(AGI)是构建 “思考机器” 的愿景,与 “狭义人工智能” 方法形成鲜明对比。本研究指出了纯统计方法无法实现 AGI,同时确定了实现类似人类适应能力和自主学习所需的关键认知能力,并总结了阻碍 AGI 进展的社会技术因素。
Aug, 2023
本文围绕超级人工智能主导的多人工智能竞争情况展开讨论,分析单一人工智能主导和多人工智能竞争对于人类整体利益的影响,并得出多人工智能竞争更有利于人类的结论。最后,本文提出了一些推进人工智能发展的建议。
Sep, 2022
人工智能的进展引起了人们对其潜在的巨大危害的关注,本文回顾了两个有影响力的论点,即人工智能可能带来灾难性风险的问题以及人工智能单点突破(Singularity Hypothesis)的讨论,同时总结了该争论的现状。
Jan, 2024
人类智能和人类增强的人工智能有着不同的激励,目前技术人员、商业和政策制定者都过分倾向于自动化,这种趋势可能导致失去经济权利和政治议价权,而研究开发人类增强的 AI 才有助于人类保持掌握营造价值的能力。
Jan, 2022
本研究旨在探讨现有的人工智能政策,认为其是一个影响人工智能发展的各种政策的综合体,提出了当前 AI 审批如何进行以及如何使其更具有效性、前瞻性,同时从其他科技领域的经验中得出一些改进建议。
Aug, 2016
通过分析职业围棋选手过去 71 年中超过 580 万次决策,使用超级人工智能程序评估人类决策质量并比较人类决策和人工智能决策的胜率,结果表明,超级人工智能的出现促使人类玩家从传统策略中脱颖而出,导致他们去探索一些新的策略,从而提高了决策能力。
Mar, 2023
人工智能中理性的概念至关重要,但没有一个统一的定义来界定何为理性代理。本文调查了人工智能中的理性与非理性,并阐述了这一领域的问题。研究经济学、哲学和心理学等其他领域对理性的理解对其在人工智能中的观念产生了影响。从人工智能代理的行为出发,我们考虑在某些情景中可能最优的非理性行为。已经有一些方法用来处理非理性代理的辨识和互动,但在这个领域的研究仍然有限。目前已经为其他目的而开发的方法,如对抗性情景,可以适应与人工智能代理的互动。我们进一步讨论了人工智能代理与人类代理之间的相互作用,以及理性在这种互动中所扮演的角色;这个领域还存在许多问题,涉及到人类和人工智能代理潜在的非理性行为。
Nov, 2023