构建更安全的自主航空系统
本文调查研究自动驾驶汽车的安全性保障问题,重点关注控制架构、风险评估与管理策略、基于人工智能和基于模型的方法的研究,并探讨了安全保障技术和安全框架的标准化 / 概括方法。
May, 2023
该研究论文提出了一种基于四个核心道德原则的框架 - 一个伦理保证论证模式 - 来结构化系统化地推理出在特定情境下使用给定的人工智能 / 自主系统的道德可接受性,以此来扩展和应用保证论证方法,从而获得使用 AI 和自主系统时的可接受道德保证。
Mar, 2022
本研究的目标是提供 AI 系统的设计模式的概述 —— 无论是新的还是适应性的 —— 以提高特定的软件质量属性和解决频繁出现的问题,并将它们收集、分类,并使它们易于为研究人员和从业者所获取,从而使结果在这一新兴领域可被用来作为后续研究的基础和为设计基于 AI 的系统提供相关模式的参考。
Mar, 2023
本章提出了七个防止人工智能系统造成伤害的课程,探讨了系统安全领域的见解,针对公共机构及基础设施中的新应用程序引发的新危害,阐述了诊断和消除新人工智能系统危害的共识缺失,并探讨了有效人工智能管理所需的跨学科方法和共享语言。
Feb, 2022
自动驾驶汽车的关键问题是安全性,本文提出了一种名为 Savvy 的可信智能自动驾驶汽车架构,通过控制层和数据层的明确分离来确保安全,并通过动态机器学习模型在安全时间限制内进行优化决策。
Feb, 2024
该论文提出了一个模式导向的参考架构,用于指导设计基于大型语言模型的自主代理,实现可负责的人工智能设计,并通过将其映射到两个现实世界代理的架构来评估其完整性和实用性。
Nov, 2023
本文讨论了自动驾驶汽车中的机器学习安全性问题,总结了一些实用的机器学习安全技术,以增强算法的可靠性和安全性,并讨论了机器学习组件的安全性限制和用户体验方面。
Dec, 2019
本文探讨了 AI 系统在不可预测的环境下操作时带来的挑战,提出了一种严格的工程框架,旨在最大程度地减小不确定性,从而提高对 AI 系统安全行为的信心。
Jan, 2022
通过研究自动驾驶系统中基于人工智能的算法,本文探讨了人工智能模型的作用和挑战,特别是在复杂和高维环境中执行实时关键功能的软件元素。针对安全关键应用,为了减少 AI 模型过于自信带来的风险,提出了一些培训方法,如实现确定性报告架构和确保多样性训练数据。此外,还讨论了现有方法在安全关键应用中的适用性,强调了其优点和局限性,并提出了提高自动驾驶车辆中人工智能算法安全性和可靠性的潜在改进措施。
Feb, 2024
AI 安全的概念在社会中日益普及,AI 社区越来越关注 AI Safety 的概念,即防止在 AI 部署过程中系统行为意外偏离设计意图而导致的故障。通过分析真实案例,我们展示了当前的词汇虽然能够涵盖 AI 部署中遇到的一系列问题,但仍需要一个扩展的社会技术框架来更好地理解 AI 系统和实施的安全机制在现实生活中的成功与失败。
Dec, 2023