将 Lyapunov 控制理论连接到对抗性攻击
本研究提出了一种新的方法来学习控制策略和非线性控制问题的神经网络李雅普诺夫函数,具有稳定性的可证明保障。该方法包括一个学习者和一个伪造器,通过快速引导学习者寻找控制和李雅普诺夫函数并寻找反例来终止程序,以保证控制的非线性系统的稳定性。该方法极大地简化了李雅普诺夫控制设计的过程,提供了端到端的正确性保证,并且可以获得比现有方法如 LQR 和 SOS/SDP 更大的吸引域范围。我们进行了实验,展示了新方法如何获得高质量的解决方案以应对具挑战性的控制问题。
May, 2020
提出了一种针对离散时间系统学习神经 Laypunov 控制器的方法,其中包括计算 Lyapunov 控制函数的混合整数线性规划方法、计算子水平集的新方法以及基于启发式梯度的方法以加速学习 Lyapunov 函数。实验结果表明,该方法在四个标准测试中均优于目前的基线方法,并且在车杆和 PVTOL 测试中是第一个自动化控制器的学习方法。
May, 2023
利用控制论技术,通过在线适应法更新深度神经网络参数,控制域偏移以及解决稳定性和迁移学习问题,提高深度神经网络基于学习的系统的性能和保证。
Feb, 2024
该研究论文提出了一种基于攻击空间和安全集合的框架,用于建立网络控制系统中的攻击情景模型,分析网络控制系统中的拒绝服务、回放、零动态和偏差注入等攻击,并描述了相应的攻击策略和对系统的影响。实验证明,这个框架能够为网络控制系统提供安全防范措施。
Dec, 2012
将机器学习引入自动控制系统 (Automated Control Systems, ACS) 可以提升工业过程管理中的决策能力。然而,神经网络对于对抗性攻击的脆弱性是广泛应用这些技术于工业界的限制之一。本研究在使用 Tennessee Eastman Process 数据集进行 ACS 中的故障诊断时,评估了三种具有不同结构的神经网络,并对其进行了六种对抗性攻击和五种不同的防御方法的测试。研究结果强调了模型对对抗样本的强大脆弱性以及防御策略的各种有效性。我们还提出了一种通过结合多种防御方法来提高保护效果的新型方法,并进行了实证。本研究为确保工业过程中机器学习的安全性和鲁棒性故障诊断提供了多个见解。
Mar, 2024
通过提出一种新的生成对抗框架 LAVA,我们成功地生成了对抗性攻击,并发现了多个目标模型的全局漏洞,揭示出这些模型的推理能力的不完全掌握与逻辑漏洞,同时我们证明了在生成的样本上进行训练可以提高目标模型的性能。
Apr, 2022
该论文提出了一种基于控制理论的新型强化方法,它使用反馈控制构建了一种神经网络架构,通过训练来稳定系统输出,从而增强对抗攻击的防御能力。通过实验结果表明,该方法相比于现有技术在标准测试问题上具有更高的有效性。
Aug, 2023
本研究提出了一种名为 LyaNet 的方法,基于 Lyapunov loss 公式训练普通微分方程,以鼓励推理动力学快速收敛到正确的预测,实验证明相对于标准神经 ODE 训练,LyaNet 可以提供更好的预测性能,更快的推理动力学收敛和更好的对抗鲁棒性。
Feb, 2022