深度强化学习在策略诱导攻击中的漏洞
本文探究了深度强化学习中的对抗攻击,比较了使用对抗样本和随机噪声攻击的有效性,并提出了一种新的基于价值函数的方法来降低攻击的成功次数。此外,本文还研究了随机噪声和FGSM扰动对对抗攻击韧性的影响。
May, 2017
本文提出了一种使用基于行为条件帧预测模块的防御机制,以防止深层强化学习代理遭受到对抗攻击,该方法可以检测到对抗性示例的存在,并允许代理在受到攻击时继续执行任务,在Atari 2600游戏中实验结果表明,该方法能够有效检测对抗性示例并在受攻击时获得较高的奖励。
Oct, 2017
本文提出了针对强化学习的对抗攻击,并通过这些攻击提高了深度强化学习算法对参数不确定性的鲁棒性。我们展示了即使是一个简单的攻击也能成功降低深度强化学习算法的性能,并进一步使用工程丢失函数的梯度信息改进了攻击方法,导致性能进一步降低。这些攻击方法被用于训练中,以改善 RL 控制框架的鲁棒性。我们展示了在 Cart-pole,Mountain Car,Hopper 和 Half Cheetah 等 RL 基准测试环境中,对 DRL 算法进行对抗训练可以显著提高其对参数变化的鲁棒性。
Dec, 2017
本文调查了深度强化学习网络在训练时间和测试时间的对抗攻击中的鲁棒性,结果显示在非连续的训练时间攻击中,通过调整策略,Deep Q-Network (DQN)代理能够恢复和适应对抗条件,相比较ε-贪婪和参数空间噪声探索方法,本文还对鲁棒性和抗干扰性进行了比较。
Dec, 2017
通过提出状态对抗马尔可夫决策过程 (SA-MDP) 的理论框架和一种新的策略正则化方法,并在多个强白盒对抗攻击中测试,我们成功地提高了一系列深层强化学习算法在离散和连续动作控制问题上的鲁棒性。
Mar, 2020
该研究聚焦于利用自主攻击性方法在深度强化学习(DRL)中提升训练的鲁棒性,并探索在软件定义网络(SDN)中将对抗学习应用于DRL以实现自主安全性的影响。通过比较两个算法,DDQN和NEC2DQN(或N2D),发现通过引入因果性攻击来实施对抗学习,算法仍能根据自身的具体优势保护网络。
Aug, 2023
提出一种新的生成模型来攻击代理并探索深度强化学习的易受攻击性,通过针对深度强化学习的行动一致性率和新的有效性与隐蔽性测量指标,实现针对性攻击和非针对性攻击,并展示了该方法相比其他算法在攻击的效果和隐蔽性方面的优势以及验证深度强化学习易受攻击性的高效快速性。
Dec, 2023
通过正式验证的视角,我们对敌对输入的特征进行了全面分析,提出了一种新的指标——敌对率,用于划分模型对此类扰动的敏感性,并提供了计算该指标的一系列工具和算法。我们的分析在实证上展示了敌对输入如何影响给定深度强化学习系统在敏感性方面的安全性,并分析了这些配置的行为,提出了一些有用的实践和指导方针,以帮助减轻训练深度强化学习网络的脆弱性。
Feb, 2024
本研究解决了深度强化学习代理在部署时对对抗扰动缺乏韧性的问题。我们提出了一种基于输入变换的防御方法,通过向量量化作为输入观察的变换,减少对抗攻击的影响。实验表明,采用向量量化有效提升了代理的抗攻击能力,并且该方法计算高效,能与对抗训练无缝结合。
Oct, 2024