管理快速发展时代的 AI 风险
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
本文探讨了人工智能技术的风险,并介绍了一种名为 AI 治理的框架,以确保人工智能的负责任使用,从而避免和减轻包括监管、合规性、声誉、用户信任、财务和社会风险在内的风险。
Nov, 2022
AI 专家和美国普通选民对 18 种具体 AI 风险的可能性和影响以及管理这些风险的政策偏好进行了调查研究,结果显示选民认为 AI 风险更可能发生且更具有影响力,同时主张减缓 AI 发展,因此政策干预应该平衡各类社会规模风险的减轻努力,从而消除关于 AI 风险近期与长期的争论,并强调达成有效政策实施的共识建立的挑战。
Jun, 2024
存在的管理高级人工智能系统风险的策略通常关注于影响开发什么样的人工智能系统以及它们如何扩散。然而,随着高级人工智能开发者数量的增加,这种方法变得越来越不可行,并且阻碍了有益的和有害的用例。我们呼吁采用一种补充方法:提高社会对高级人工智能的适应能力,即减少特定级别的人工智能能力扩散所带来的预期负面影响。我们引入了一个概念框架,用于识别避免、防范和纠正潜在有害的人工智能系统使用的适应性干预措施,并结合选举操纵、网络恐怖主义和人工智能决策者失控的示例进行说明。我们讨论了社会可以实施的适应人工智能的三个步骤循环。增强社会实施这一循环的能力将提高社会对高级人工智能的韧性。最后,我们为政府、行业和第三方提出具体建议。
May, 2024
当前人工智能技术缺乏管理长尾风险的系统性讨论,而过多提升其智能和能力可能导致比人类更强大的系统从而带来生存威胁;本文提供了分析人工智能灾难性风险的指南包括如何在今天保持系统的安全、在未来影响人工智能系统安全的策略以及平衡安全和通用性的方法。
Jun, 2022
该论文提出了降低先进人工智能(AI)灭绝风险的政策建议,包括建立跨国人工智能联盟、实施全球计算能力上限、要求确认性安全评估,并提出了国际社区可以采取的中间步骤来实施这些提案和奠定围绕先进 AI 的国际协调的基础。
Oct, 2023
建议建立国际负责风险评估的 AI 联盟,以监管和规范快速发展的高级人工智能系统,缓解社会规模的风险,并推动负责任的扩展政策和协调的评估风险反应。
Oct, 2023
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
AI2050 年的 “硬问题” 会阻止 AI 的发展,并引发 AI 的风险。其中包括系统的全面能力开发、确保 AI 系统和训练过程的性能、使系统目标与人类目标相一致、在实际生活中实现出色的 AI 应用以及应对经济颠覆。
Feb, 2024