基于自动驾驶车辆行业多年的工作,本文介绍了开放自治安全案例框架作为如何安全和负责任地部署自动驾驶车辆的指导路线。
Apr, 2024
AI 系统的安全性是一个重要的考量,因此作者提出了一个结构化的理由框架,包含四个类别的论证,以证明 AI 系统在训练和部署过程中不太可能引发灾难,并提到控制措施的强度、即使可能造成伤害也是可信的、以及可信的 AI 顾问的权威等内容。
Mar, 2024
通过探讨与保障支持因为设计而参数要求(例如安全性、安全性和可靠性)的合规性的确证缺陷检测、模式依赖以改善确证方案结构、改进现有确证方案符号以及(半)自动化确证方案生成等方面的挑战,提出了一些可能的解决方向。
Jan, 2024
安全过滤器方法综述,提供了一个统一的技术框架,以理解、比较和结合现有技术,为下一代自主机器人的部署提供更可扩展的综合、鲁棒性监测和高效干预的方向。
Sep, 2023
AI 专家建议在高风险的人工智能系统开发或部署之前,公司应该要求展示这些系统的安全性。本文旨在扩展这个想法并探讨其对风险管理的影响。我们认为开发或部署高风险人工智能系统的实体应该提供积极安全的证据,并确保其活动将风险保持在可接受的阈值以下。
在部署自动驾驶车辆并获得实践经验后,有必要重新审视现有的计算机系统安全的定义和相关概念框架。当前工业安全标准所使用的术语强调对具体识别出的风险进行缓解,并假设基于人类监督的车辆操作。然而,无人驾驶模式极大地增加了安全问题的范围,特别是在开放环境中的操作,自我强制操作限制的要求,参与到自发的社会技术系统中,以及遵守法律和道德约束的要求。现有标准和术语只局部地应对了这些新挑战。我们提出了基于核心系统安全概念的更新定义,以涵盖这些额外的考虑,作为针对这些额外安全挑战不断进化的安全方法的起点。这些结果还可以为其他自主系统应用提供安全术语的构建提供指导。
本章提出了七个防止人工智能系统造成伤害的课程,探讨了系统安全领域的见解,针对公共机构及基础设施中的新应用程序引发的新危害,阐述了诊断和消除新人工智能系统危害的共识缺失,并探讨了有效人工智能管理所需的跨学科方法和共享语言。
Feb, 2022
机器学习在工业系统中的应用以及其安全性和合规性对于决策辅助等关键功能具有重要意义,然而,当前机器学习组件的低形式化程度和不确定性使得使用传统的关键系统工程方法难以验证和验证其安全性,因此需要制定适用于人工智能的规范和监管标准,提出可信的人工智能认证方法和工具。
该研究论文提出了一种基于四个核心道德原则的框架 - 一个伦理保证论证模式 - 来结构化系统化地推理出在特定情境下使用给定的人工智能 / 自主系统的道德可接受性,以此来扩展和应用保证论证方法,从而获得使用 AI 和自主系统时的可接受道德保证。
Mar, 2022
AI 安全的概念在社会中日益普及,AI 社区越来越关注 AI Safety 的概念,即防止在 AI 部署过程中系统行为意外偏离设计意图而导致的故障。通过分析真实案例,我们展示了当前的词汇虽然能够涵盖 AI 部署中遇到的一系列问题,但仍需要一个扩展的社会技术框架来更好地理解 AI 系统和实施的安全机制在现实生活中的成功与失败。
Dec, 2023