算法鲁棒性
对近期关于 AI 鲁棒性的研究进展进行系统性调查,提出了三个分类学来组织和描述文献,并强调人类在评估和提高 AI 鲁棒性方面的关键作用。
Oct, 2022
本文介绍了如何通过系统性的互补、多样性和冗余能力,在网络智能体和多机器人系统中实现应对不可预期破坏的韧性能力,通过定义、测量和维护,提出实现弹性机器人系统的方法,同时讨论了其面临的挑战和未来工作。
Sep, 2021
本章探索了机器学习(ML)中鲁棒性的基本概念及其在建立可信人工智能(AI)系统中的关键作用。讨论从详细定义鲁棒性开始,描绘了 ML 模型在各种意外环境条件下保持稳定性能的能力。通过不同视角剖析 ML 鲁棒性:与泛化能力的互补性,作为可信 AI 的要求,对抗性与非对抗性方面,定量评价指标,以及可重复性和可解释性等指标。本章深入探讨了影响鲁棒性的因素,如数据偏差、模型复杂性和不规范的 ML 流程的陷阱。从广泛的角度调查了鲁棒性评估的关键技术,包括对抗性攻击,包括数字和物理领域。它还涵盖了非对抗性数据转移和深度学习(DL)软件测试方法的细微差别。讨论进一步探索了增强鲁棒性的改进策略,从以数据为中心的方法如去偏和增强开始。进一步的研究包括各种以模型为中心的方法,如迁移学习、对抗训练和随机平滑等。最后,讨论了训练后方法,包括集成技术,修剪和模型修复,作为提高模型对不可预测因素的适应性的经济有效策略。本章强调现有方法对 ML 鲁棒性的估计和实现所面临的挑战和局限性,并为未来关于这一关键概念的研究提供了洞见和方向,作为可信 AI 系统的先决条件。
Apr, 2024
算法稳定性是学习理论中的一个核心概念,它量化了算法对训练数据中微小变化的敏感性。如果学习算法满足特定的稳定性属性,这将导致许多重要的下游影响,如泛化性能、鲁棒性和可靠的预测推理。然而,最近的研究结果表明,对于黑盒算法而言,在有限来自未知分布的数据的情况下,验证稳定性是不可能的,尤其是当数据存在于无穷空间(如实值数据)的情况下。在本文中,我们将这个问题扩展到更广泛的设置中,其中数据可以存在于任何空间,例如分类数据。我们提出了一个统一的框架来量化测试算法稳定性的难度,这证明了在所有设置中,如果可用的数据是有限的,则穷举搜索基本上是唯一有效的证明算法稳定性的机制。由于在实践中,任何稳定性测试自然都会受到计算约束的限制,因此穷举搜索是不可能的,这意味着我们测试黑盒算法的稳定性属性能力存在根本限制。
May, 2024
机器学习算法的可信性取决于用户能否确认其输出的正确性;可信性需要算法在对事实的情景下工作良好,并基于正确特征做出决策,解释性、因果快捷独立性和分布转移稳健性是我们关心模型属性的原因。
Oct, 2023
通过综述方法与开放问题对最近几年来 RL 的安全和稳健性的相关研究工作进行总结,本文主要关注 RL 系统在现实场景中的安全性和稳健性挑战,探讨了算法、伦理和实践考虑等方面的主要维度以及如何增强 RL 代理的安全性和稳健性,同时讨论了环境因素和人的参与等影响因素,最后提出了一个实用的检查清单,以帮助从业者在各个应用领域负责任地部署 RL 系统。
Mar, 2024
本文调查了鲁棒优化的主要研究,无论是理论还是应用,我们的重点在于 RO 方法的计算吸引力,以及方法论的建模能力和广泛适用性,除了调查 RO 的重要理论结果外,我们还展示了一些最近的结果,将 RO 与多阶段决策问题的适应模型联系起来。最后,我们强调了 RO 在金融、统计学、学习以及各种工程领域的应用。
Oct, 2010
近年来,对神经网络的稳健性评估引起了极大关注,深度学习的稳健性问题特别突出,研究人员致力于在图像识别任务中评估稳健性,在此综述中,我们对神经网络评估中敌对稳健性和扰动稳健性进行了详细研究,分析当前研究和标准,提供了图像识别中稳健性评估的广泛概述,分析了概念、度量标准和评估方法,研究了用于度量图像扰动程度的扰动度量和范围表示,以及特定于分类模型稳健性条件的稳健度量,还讨论了现有方法的优势和局限性,并提供了一些未来研究的潜在方向。
Apr, 2024