一个计算轻量级的安全学习算法
该论文提出了一种考虑安全性的学习算法,利用 Lyapunov 稳定性检验的控制理论结果和动力学统计模型,得到具备可证明稳定性证书的高性能控制策略,并通过高斯过程先验进一步保证数据安全性和提高控制性能。在反演摆模拟实验中表现出安全性高、控制性能良好的特点。
May, 2017
本文提出了一种基于学习的模型预测控制方案,其可以提供可证明的高概率安全保证,并利用正态分布先验的规则性假设来构建可证明准确的置信区间,保证轨迹满足安全约束,通过终端集约束递归地保证每个迭代中存在安全控制动作。在实验中展现了该算法可以用来安全、高效地探索和学习动态系统。
Mar, 2018
本文提出了有效的技术来综合安全集合和控制律,通过基于凸优化问题的近似来提供改进的可伸缩性质,其中一种方法仅需要近似的线性系统模型和 Lipschitz 连续的未知非线性动力学,展示了数字示例,包括一个自主车队。
Nov, 2017
本论文旨在明确机器学习安全的定义,并通过研究智能决策科学和数据产品等应用领域,探讨实现机器学习安全的四种策略,包括内在安全设计、安全保护垫、安全失败和程序保护,并提出相应的技术方法和异议函数,以确保解释性、因果性、人工参与和用户体验设计等方面的安全性。
Oct, 2016
这篇研究论文就如何在机器人系统的学习过程中保证安全性提出了一种新的框架,综合运用了学习控制方法、Hamilton-Jacobi 可达性方法和贝叶斯机制,通过概率和最坏情况分析提供了理论安全保障,并在四旋翼飞行器上实验室验证了其有效性。
May, 2017
在实际部署中的机器学习算法时,确保安全是一项重要的资产。现有的安全学习方法通常考虑连续变量,即回归任务。然而,在实践中,机器人系统还受到离散的、外部的环境变化的影响,例如必须携带一定重量的物体或在冻结、潮湿或干燥的表面上操作。这些影响可以建模为离散的上下文变量。在现有的文献中,如果考虑了这些上下文,大多数情况下是假设为已知的。在这项工作中,我们放弃了这个假设,并展示了当我们不能直接测量上下文变量时如何进行安全学习。为了实现这一点,我们针对多类分类导出了频率学派的保证,允许我们从测量中估计当前的上下文。此外,我们提出了一种通过实验识别上下文的方法。我们讨论了在哪些条件下我们能保留理论保证,并通过使用不同权重的相机测量的 Furuta 摆作为上下文对我们的算法的适用性进行了演示。
Jan, 2024
研究提出了一种基于安全保证的 SafeOpt 算法的改进,通过使用最新的高斯过程界限来保留所有的理论保证,并且引入了 Lipschitz-only Safe Bayesian Optimization 算法,它在没有 RKHS 边界假设的情况下保证了安全性,并且在多种函数类上表现出优于现有算法的性能,同时还提出了 Lipschitz-only GP-UCB 来扩展算法在高维问题上的适用性。
Mar, 2024