人工智能安全性的具体问题再探讨
讨论机器学习与人工智能技术对社会潜在影响的一个问题:机器学习系统中的意外事故风险和如何抵御。我们提出了五个与事故风险相关的实际研究问题,涉及到错误的目标函数、过于昂贵的监督、安全探索和分布变化等方面。最后,思考了如何更具生产力地思考人工智能前瞻性应用的安全问题。
Jun, 2016
本章提出了七个防止人工智能系统造成伤害的课程,探讨了系统安全领域的见解,针对公共机构及基础设施中的新应用程序引发的新危害,阐述了诊断和消除新人工智能系统危害的共识缺失,并探讨了有效人工智能管理所需的跨学科方法和共享语言。
Feb, 2022
研究人工智能的安全性,认为未来人工智能的故障频率和严重性将不断增加,并将其与网络安全相比较。对于一般人工智能系统失误的影响将比狭窄人工智能系统更深远,建议应加强其安全性以确保零失误的发生,尽管这是不可能的。
Oct, 2016
人工智能安全性的炒作对于推进社会公益的其他人工智能研究途径产生冲突,因为 AI 安全性与透明度等社会公益相关概念存在微妙而棘手的关系。此外,AI 安全性辩论也可能使一些监管工作朝着不太理想的方向发展,同时给会造成结构性伤害的 AI 提供一种贴上安全标签的机会。
Mar, 2024
AI 系统的安全性是一个重要的考量,因此作者提出了一个结构化的理由框架,包含四个类别的论证,以证明 AI 系统在训练和部署过程中不太可能引发灾难,并提到控制措施的强度、即使可能造成伤害也是可信的、以及可信的 AI 顾问的权威等内容。
Mar, 2024
AI 安全措施可能加剧而非减轻存在风险,对 AI 失败的不可避免性、失败点 AI 系统能力与伤害严重程度的预期相关性以及安全措施在失败前使 AI 系统更强大的倾向等核心假设提出负面预期效用。本文探讨了乐观主义、缓解和整体性三种应对策略,每种策略面临 AI 安全景观内固有特征所带来的挑战,例如瓶颈、完美障碍和平衡波动。该论点的意外稳健性迫使重新审视 AI 安全的核心假设,并指出了一些值得进一步研究的方向。
May, 2024
本文探讨了 AI 系统在不可预测的环境下操作时带来的挑战,提出了一种严格的工程框架,旨在最大程度地减小不确定性,从而提高对 AI 系统安全行为的信心。
Jan, 2022
泛人工智能与人类的互动达到了前所未有的规模,为巨大的积极影响提供了新途径,但也引发了广泛关注,担忧其对个体和社会可能造成的伤害。本文中,我们认为,对这些人工智能技术的有意义的安全保证只能通过思考人工智能输出与人类行为之间形成的反馈循环如何推动交互走向不同结果来实现。为此,我们设想了从控制论到人类中心的人工智能安全的快速增长能力之间的高价值契机,为未来几十年的人类中心人工智能安全奠定了新基础。
May, 2024
这项研究综合了当前和未来的人工智能应用所面临的伦理问题,从技术和社会角度对 AI 部署中的公平性、隐私和数据保护、透明度与可解释性等伦理原则进行了综述。
Nov, 2023