AI 安全之法律研究
本章提出了七个防止人工智能系统造成伤害的课程,探讨了系统安全领域的见解,针对公共机构及基础设施中的新应用程序引发的新危害,阐述了诊断和消除新人工智能系统危害的共识缺失,并探讨了有效人工智能管理所需的跨学科方法和共享语言。
Feb, 2022
AI 系统的安全性是一个重要的考量,因此作者提出了一个结构化的理由框架,包含四个类别的论证,以证明 AI 系统在训练和部署过程中不太可能引发灾难,并提到控制措施的强度、即使可能造成伤害也是可信的、以及可信的 AI 顾问的权威等内容。
Mar, 2024
通过将法律知识和推理嵌入 AI 中并利用法律过程生成的数据来解决人类价值的规范问题,从而增加人工智能与人的对齐并提高其在本地上的实用性。
Sep, 2022
我们的跨学科研究调查了美国法律如何有效应对生成式人工智能对人类价值观的挑战。通过对专家研讨会中构思的多种假设场景进行分析,我们发现现行法律框架在保护自主权,隐私,尊严,多样性,平等和身体 / 心理健康等基本价值观方面存在显著的差距和不确定性。宪法和民事权利似乎不足以提供对 AI 生成的歧视性输出的足够保护。此外,即使我们排除第 230 条规定的责任保护,由于人工智能系统的错综复杂和模糊不清的特点,要证明诽谤和产品责任的因果关系是一项具有挑战性的事业。为了应对生成式人工智能带来的独特和不可预见的威胁,我们倡导法律框架的演进,以认识新的威胁并向行业利益相关者提供主动的、可审计的指导方针。解决这些问题需要深入的跨学科合作,以确定伤害、价值观和缓解策略。
Aug, 2023
AI 安全的概念在社会中日益普及,AI 社区越来越关注 AI Safety 的概念,即防止在 AI 部署过程中系统行为意外偏离设计意图而导致的故障。通过分析真实案例,我们展示了当前的词汇虽然能够涵盖 AI 部署中遇到的一系列问题,但仍需要一个扩展的社会技术框架来更好地理解 AI 系统和实施的安全机制在现实生活中的成功与失败。
Dec, 2023
该研究提供了一个基于文献计量学的量化研究方法,发现自 2015 年以来,AI 安全领域的研究活动显著增加。然而,在技术问题、长期效用、价值联结以及政策方面仍存在一些研究知识空白需要进一步研究和探索。
Feb, 2020
泛人工智能与人类的互动达到了前所未有的规模,为巨大的积极影响提供了新途径,但也引发了广泛关注,担忧其对个体和社会可能造成的伤害。本文中,我们认为,对这些人工智能技术的有意义的安全保证只能通过思考人工智能输出与人类行为之间形成的反馈循环如何推动交互走向不同结果来实现。为此,我们设想了从控制论到人类中心的人工智能安全的快速增长能力之间的高价值契机,为未来几十年的人类中心人工智能安全奠定了新基础。
May, 2024
讨论机器学习与人工智能技术对社会潜在影响的一个问题:机器学习系统中的意外事故风险和如何抵御。我们提出了五个与事故风险相关的实际研究问题,涉及到错误的目标函数、过于昂贵的监督、安全探索和分布变化等方面。最后,思考了如何更具生产力地思考人工智能前瞻性应用的安全问题。
Jun, 2016
人工智能安全性的炒作对于推进社会公益的其他人工智能研究途径产生冲突,因为 AI 安全性与透明度等社会公益相关概念存在微妙而棘手的关系。此外,AI 安全性辩论也可能使一些监管工作朝着不太理想的方向发展,同时给会造成结构性伤害的 AI 提供一种贴上安全标签的机会。
Mar, 2024
本文探讨了 AI 系统在不可预测的环境下操作时带来的挑战,提出了一种严格的工程框架,旨在最大程度地减小不确定性,从而提高对 AI 系统安全行为的信心。
Jan, 2022