AI 驱动的自主武器威胁地缘政治不稳定并危及 AI 研究
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
滥用民用人工智能(AI)可能对国家和国际安全构成严重威胁,本文通过定义自主系统并解释 AI 开发的特点来展示已存在且公开可用的 AI 技术如何被滥用,进一步开发了三个潜在被滥用的 AI 使用案例,威胁政治、数字和实体安全,这些案例可以通过现有的学术界、私营部门和开发者社区的 AI 技术组件组合成自主武器系统,基于这些案例,我们总结了控制点和进一步措施,以防止通过滥用 AI 产生潜在威胁,并倡议在自主武器系统(AWS)讨论中考虑民用 AI 系统的滥用。
Mar, 2024
人工智能 (AI) 和机器学习 (ML) 在开发新型防御和情报能力方面已变得越来越重要。A2I 攻击旨在欺骗和操纵 AI/ML 模型,因此 AI/ML 模型必须能够抵御这些攻击。A2IWG 旨在通过在美国国防部和情报机构之间建立协作环境,通过新的 A2I/AML 防御手段,推动确保 AI/ML 能力的研究和开发,并针对具体挑战,重点关注 AI 可信鲁棒性,AI 系统安全性和 AI/ML 架构漏洞。
Sep, 2020
通过研究先进的人工智能系统,我们指出了即将到来的风险,包括大规模社会伤害和恶意使用,以及人类对自主人工智能系统失去控制的不可逆性。鉴于人工智能的迅速发展,我们提出了人工智能研发和治理的优先事项。
Oct, 2023
过去十年中,对抗攻击算法揭示了深度学习工具的不稳定性,这些算法引发了与人工智能中的安全性、可靠性和可解释性相关的问题,尤其是在高风险环境中。从实际角度来看,攻击和防御策略开发者之间发生了一场升级战。在更理论层面上,研究人员还研究了关于攻击的存在和可计算性的更大问题。在这篇文章中,我们对该主题进行了简要概述,重点关注对应用和计算数学领域的研究人员可能感兴趣的方面。
Aug, 2023
技术创新和人工智能对社会产生了巨大的益处和威胁。这项研究提出了一个关注人工智能相关地缘政治风险的分类法,共识别出 12 种风险,分为四类:地缘压力、恶意使用、环境、社会和伦理风险以及隐私和信任侵犯。本文结合欧盟 AI 法案进行了政策评估,该法案在 2023 年 3 月通过,有望对减少 AI 风险产生积极的自上而下的影响,但需要进行相应的法规调整以更全面地减轻风险。针对开源模型的法规例外、将 GPAI 模型划分为系统风险的参数设置过高以及专门设计用于军事目的的系统被排除在法规义务之外等问题仍需要未来的行动。
Apr, 2024
该报告调查了恶意使用 AI 的潜在安全威胁的现状,并提出了更好地预测,预防和减轻这些威胁的方法。在分析了 AI 可能如何影响数字,物理和政治领域的威胁格局之后,我们为 AI 研究人员和其他利益相关者提出了四个高层次的建议。我们还建议一些有前途的研究领域,以扩展防御手段的组合,或使攻击变得不那么有效或难以执行。最后,我们讨论了进攻者和防御者的长期平衡,但并未得出确定性结论。
Feb, 2018
通过对多个人工智能自主代理在模拟战争游戏中的行为进行研究,我们发现大型语言模型存在升级行动和难以预测升级模式的问题,这可能导致更大的冲突和核武器的使用,因此在部署自主语言模型代理进行战略决策之前需要进一步审查和谨慎考虑。
Jan, 2024