人工智能与武器控制
利用机器学习(ML)发展自主武器系统(AWS)对地缘政治稳定性和 AI 研究中的自由交流构成了严重风险。本文的目标是提醒公众和机器学习研究人员对军事技术中全面或近乎全面自主性带来的近期风险,并提出监管建议以减轻这些风险。
May, 2024
使用计算机视觉来识别武器系统和武装团体的标志,有潜力通过跟踪武器在不同类型的政府和非政府军事行动者之间的使用来实时了解冲突情况,包括人道主义和医疗援助最需要的地区。
Nov, 2023
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
人工智能(AI)系统将越来越常被用于造成伤害,为了防止对 AI 的一些错误使用,本文提出了一种减少 AI 误用的干预分类法,重点在于对于误用所需的特定步骤(误用链)进行干预以及确定是否需要此干预。
Mar, 2023
滥用民用人工智能(AI)可能对国家和国际安全构成严重威胁,本文通过定义自主系统并解释 AI 开发的特点来展示已存在且公开可用的 AI 技术如何被滥用,进一步开发了三个潜在被滥用的 AI 使用案例,威胁政治、数字和实体安全,这些案例可以通过现有的学术界、私营部门和开发者社区的 AI 技术组件组合成自主武器系统,基于这些案例,我们总结了控制点和进一步措施,以防止通过滥用 AI 产生潜在威胁,并倡议在自主武器系统(AWS)讨论中考虑民用 AI 系统的滥用。
Mar, 2024
这篇论文将提出一种新的 AI 指挥与控制架构,即敏捷、抗脆性、AI-Enabled Command and Control (A3IC2) 系统,以避免 AI 引发的指挥与控制系统脆弱陷阱,通过过度补偿来不断改善性能,在面对决策期间的反馈时,实现其容错能力和恢复能力,并从战争的冲击和波动中受益。
Sep, 2021
人工智能系统的伦理责任是对其可能用于冲突应用的非军事应用进行理论分析和实践方法的介绍,包括通过建立多视角能力测试、集成数字水印和利用监测与报告机制来减轻开发者的道德责任。
Jan, 2024
本文系统综述了国际上共 73 篇针对人工智能 (AI) 监管的学术论文,重点关注社会风险、监管责任和可能的政策框架,包括基于风险和基于原则的方法。研究发现 AI 领域的复杂性,以及其尚未成熟和缺乏明确性。通过与欧洲 AI 监管建议的比较,本文展示了该监管的具体方法、优点和缺点,有助于更好的理解 AI 和监管之间的关系及其中的规范决策。
Sep, 2022
该研究旨在提高科学领域中人工智能滥用的危险,并呼吁在该领域中负责任地开发和使用人工智能。通过列举科学环境中人工智能带来的风险,并通过化学科学领域的实际滥用示例来展示这些风险,高亮显示了有效的风险管理策略的需求。为此,我们提出了一个名为 SciGuard 的系统来控制科学中人工智能模型的滥用风险,并提出了一个名为 SciMT-Safety 的红队基准来评估不同系统的安全性。我们的提议在评估中显示出最小的有害影响,并且在良性测试中不会影响性能。最后,我们强调了跨学科和合作努力来确保在科学中安全和道德地使用人工智能模型的需求。我们希望我们的研究能够激发研究人员、从业者、决策者和公众之间就科学中的人工智能的道德使用展开有建设性的讨论,以最大化利益,最小化滥用风险。
Dec, 2023