机器学习中的工程安全
本论文旨在明确机器学习安全的定义,并通过研究智能决策科学和数据产品等应用领域,探讨实现机器学习安全的四种策略,包括内在安全设计、安全保护垫、安全失败和程序保护,并提出相应的技术方法和异议函数,以确保解释性、因果性、人工参与和用户体验设计等方面的安全性。
Oct, 2016
讨论机器学习与人工智能技术对社会潜在影响的一个问题:机器学习系统中的意外事故风险和如何抵御。我们提出了五个与事故风险相关的实际研究问题,涉及到错误的目标函数、过于昂贵的监督、安全探索和分布变化等方面。最后,思考了如何更具生产力地思考人工智能前瞻性应用的安全问题。
Jun, 2016
本章提出了七个防止人工智能系统造成伤害的课程,探讨了系统安全领域的见解,针对公共机构及基础设施中的新应用程序引发的新危害,阐述了诊断和消除新人工智能系统危害的共识缺失,并探讨了有效人工智能管理所需的跨学科方法和共享语言。
Feb, 2022
本文讨论了自动驾驶汽车中的机器学习安全性问题,总结了一些实用的机器学习安全技术,以增强算法的可靠性和安全性,并讨论了机器学习组件的安全性限制和用户体验方面。
Dec, 2019
本文探讨了 AI 系统在不可预测的环境下操作时带来的挑战,提出了一种严格的工程框架,旨在最大程度地减小不确定性,从而提高对 AI 系统安全行为的信心。
Jan, 2022
探讨了提高图机器学习(Graph ML)安全性的三个关键方面:可靠性、泛化能力和保密性,并采用一种新的分类法分析了与这些方面相关的威胁,指导评估有效策略来保护图 ML 模型的安全性,为未来的研究奠定基础。
May, 2024
在这篇论文中,我们提出了一种安全学习算法,通过使用 Nadaraya-Watson 估计器而不是高斯过程,提供概率安全保证,并且在数据点数量方面实现对数级别的扩展。我们为估计结果提供了理论保证,将其嵌入到一个安全学习算法中,并在模拟的七自由度机器人操纵器上进行了数值实验。
Sep, 2023
机器学习在工业系统中的应用以及其安全性和合规性对于决策辅助等关键功能具有重要意义,然而,当前机器学习组件的低形式化程度和不确定性使得使用传统的关键系统工程方法难以验证和验证其安全性,因此需要制定适用于人工智能的规范和监管标准,提出可信的人工智能认证方法和工具。
Sep, 2023