人工智能引发的社会危害的多样性和综合人工智能法律的失败
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
本章提出了七个防止人工智能系统造成伤害的课程,探讨了系统安全领域的见解,针对公共机构及基础设施中的新应用程序引发的新危害,阐述了诊断和消除新人工智能系统危害的共识缺失,并探讨了有效人工智能管理所需的跨学科方法和共享语言。
Feb, 2022
人工智能创新主要关注 “what” 和 “how” 问题,忽视可能的危害与社会背景,导致了潜在的社会技术问题,因此我们需要计算机科学和社会学科之间更紧密的联系。
Dec, 2020
阐述了人工智能和机器学习技术在改善社会的同时,由于潜在的风险和固有的特征会导致安全和基本权利受到威胁,并提出需要改进现有的责任制度以保护受害者的利益的观点。
Nov, 2022
介绍了计算系统杂交网络可能造成的几种潜在的伤害形式,探讨了这些潜在的伤害对不同利益相关方的影响,并提出了有效的伤害预防框架应该考虑包括计算系统特征、利益相关方和潜在伤害的广泛范围等在内的因素。
Nov, 2020
我们的跨学科研究调查了美国法律如何有效应对生成式人工智能对人类价值观的挑战。通过对专家研讨会中构思的多种假设场景进行分析,我们发现现行法律框架在保护自主权,隐私,尊严,多样性,平等和身体 / 心理健康等基本价值观方面存在显著的差距和不确定性。宪法和民事权利似乎不足以提供对 AI 生成的歧视性输出的足够保护。此外,即使我们排除第 230 条规定的责任保护,由于人工智能系统的错综复杂和模糊不清的特点,要证明诽谤和产品责任的因果关系是一项具有挑战性的事业。为了应对生成式人工智能带来的独特和不可预见的威胁,我们倡导法律框架的演进,以认识新的威胁并向行业利益相关者提供主动的、可审计的指导方针。解决这些问题需要深入的跨学科合作,以确定伤害、价值观和缓解策略。
Aug, 2023
该研究论文探讨了欧洲委员会关于 AI 责任的两个提案及其对欧盟 AI 相关法规的影响,提出了继续完善 AI 责任制和规范 AI 开发部署的措施,并建议为此制定详细框架和规定,以促进公平、可解释和可持续的 AI 的发展。
Nov, 2022
人工智能(AI)系统将越来越常被用于造成伤害,为了防止对 AI 的一些错误使用,本文提出了一种减少 AI 误用的干预分类法,重点在于对于误用所需的特定步骤(误用链)进行干预以及确定是否需要此干预。
Mar, 2023
存在的管理高级人工智能系统风险的策略通常关注于影响开发什么样的人工智能系统以及它们如何扩散。然而,随着高级人工智能开发者数量的增加,这种方法变得越来越不可行,并且阻碍了有益的和有害的用例。我们呼吁采用一种补充方法:提高社会对高级人工智能的适应能力,即减少特定级别的人工智能能力扩散所带来的预期负面影响。我们引入了一个概念框架,用于识别避免、防范和纠正潜在有害的人工智能系统使用的适应性干预措施,并结合选举操纵、网络恐怖主义和人工智能决策者失控的示例进行说明。我们讨论了社会可以实施的适应人工智能的三个步骤循环。增强社会实施这一循环的能力将提高社会对高级人工智能的韧性。最后,我们为政府、行业和第三方提出具体建议。
May, 2024