人工智能意识与公众认知:四种未来
区分“近期”和“长期”研究在人工智能伦理和社会研究领域中已经具有广泛应用和重要性,但是文章对该分类方式的模棱两可和不一致性提出了一些担忧。为了建立新的合作机会、发展更一致的研究议程并确定以前忽视的研究领域,作者建议通过4个维度进行更加清晰的交流。
Jan, 2020
通过介绍 AI 的 prepotence 特性,分析 AI 在未来可能存在的 existential risks,并通过技术研究指导原则,提出潜在的研究方向,以促进 existential safety 的保障。
May, 2020
探讨人工智能对社会政治和人类作为一个整体的影响,提出存在某些已记录的AI影响可以成为存在风险因素,强调AI对权力动态和信息安全的影响,揭示了AI系统对不存在假设未来AI能力的存在风险的因果路径。
Sep, 2022
当前和近期AI系统是否会具备意识是一个受到科学界关注和公众担忧的话题。本报告提出并举例了一种严格的和以实证为基础的AI意识研究方法,即在我们最有支持的神经科学意识理论的指导下,对现有AI系统进行详细评估。我们调查了几个著名的科学意识理论,包括循环处理理论、全局工作空间理论、高阶理论、预测处理和注意图式理论。根据这些理论,我们以计算术语阐明了意识的“指示性属性”,从而可以评估AI系统是否具备这些属性。我们利用这些指示性属性评估了几个最近的AI系统,并讨论了未来系统如何实现它们。我们的分析表明目前没有任何AI系统具备意识,但也表明建立意识的AI系统并没有明显的障碍。
Aug, 2023
AI系统的可信发展需要多学科治理,通过关键的系统检查(如能源消耗)来全面审查其生命周期中的社会影响,以及从计算机科学、社会学、环境科学等多学科角度讨论其互相关联的社会风险和无法同时满足健康的方面,从社会伦理影响评估的角度强调了全面解决AI系统紧迫问题的必要性,以揭示其对社会的有害影响,真正实现以人为中心的可信AI。
Sep, 2023
未来高级人工智能的困扰通常集中在系统的内在特征,如与代理行为、战略意识和长期规划等有关。本研究称之为“物性X”。目前,大多数现有的人工智能系统在“物性X”上表现较低,然而,在缺乏有意引导的情况下,当前研究方向可能会迅速导致高度能力的人工智能系统的出现,这些系统在“物性X”方面也表现较高。本文认为,“物性X”特征本质上是危险的,结合更强的能力将导致难以保证安全和控制的人工智能系统。通过借鉴几位学者对人工智能研究轨迹的替代框架,我们认为高级人工智能的大部分提议优势可以通过设计用于最小化该特性的系统得到。然后,我们提出指标和治理干预措施来识别和限制具有危险“物性X”特征的系统的发展。
Oct, 2023
人工智能的快速发展引发了专家、决策者和世界领袖的担忧,关于越来越先进的人工智能系统可能造成的存在风险,这篇论文通过研究规范游戏、目标误归纳和寻求权力来审查关于人工智能存在风险的证据。该论文发现目前的证据状况令人担忧但不确定,关于存在极端的不协调寻求权力的可能性。强有力的规范游戏经验证据加上寻求权力的有力概念论证,使得很难排除由于不协调寻求权力而带来的存在风险的可能性。另一方面,迄今为止,还没有公开的关于人工智能系统中不协调寻求权力的实证例子,因此对未来系统将带来存在风险的论点仍然有些推测性质。鉴于目前的证据状况,我们很难非常确信不协调寻求权力存在巨大的存在风险,或者它不构成存在风险。无法有把握地排除人工智能通过不协调寻求权力带来存在风险的事实是令人严重担忧的。
Oct, 2023
这篇论文对比了传统的“决定性人工智能风险假设”和“累积人工智能风险假设”,指出通过逐渐积累关键的人工智能引发的威胁,如严重漏洞和经济政治结构的系统侵蚀,逐渐形成灾难。通过对系统进行分析,提出了累积观点能够调和看似不相容的对人工智能风险的观点,并讨论了这两种因果路径的不同对人工智能风险治理和长期安全的影响。
Jan, 2024
AI专家和美国普通选民对18种具体AI风险的可能性和影响以及管理这些风险的政策偏好进行了调查研究,结果显示选民认为AI风险更可能发生且更具有影响力,同时主张减缓AI发展,因此政策干预应该平衡各类社会规模风险的减轻努力,从而消除关于AI风险近期与长期的争论,并强调达成有效政策实施的共识建立的挑战。
Jun, 2024
人工智能技术的迅猛发展和与人类互动的公众意见将直接影响人工智能能力和安全的未来发展。我们所做的首次全国代表性调查数据展示了人工智能、道德和感知主题的初步结果,发现人们对于具有感知能力的人工智能的心智感知和道德关注高于预期,并逐渐增加。这些讨论本身可能改变人机互动方式,塑造人工智能技术的未来发展轨迹,包括存在性风险和机遇。
Jul, 2024