本文调查了深度强化学习网络在训练时间和测试时间的对抗攻击中的鲁棒性,结果显示在非连续的训练时间攻击中,通过调整策略,Deep Q-Network (DQN) 代理能够恢复和适应对抗条件,相比较 ε- 贪婪和参数空间噪声探索方法,本文还对鲁棒性和抗干扰性进行了比较。
Dec, 2017
提出一种新的生成模型来攻击代理并探索深度强化学习的易受攻击性,通过针对深度强化学习的行动一致性率和新的有效性与隐蔽性测量指标,实现针对性攻击和非针对性攻击,并展示了该方法相比其他算法在攻击的效果和隐蔽性方面的优势以及验证深度强化学习易受攻击性的高效快速性。
Dec, 2023
本文研究了基于图结构的深度学习模型的鲁棒性问题,针对修改数据的组合结构而导致模型攻击的问题,提出了基于强化学习的攻击方法,同时引入遗传算法和梯度法等多种变形方法来进行攻击,并通过实验验证了针对图级别和节点级别分类任务的多种图神经网络模型都具有易受攻击性,同时这些攻击手段可以用来进一步诊断分类器。
Jun, 2018
研究在图形上进行分散敌对训练以提高多智能体系统的鲁棒性。通过使用传播学习的 min-max 形式,我们开发了一种分散的敌对训练框架,在凸和非凸环境中分析了所提出方案的收敛性,并说明了对抗攻击的增强鲁棒性。
Mar, 2023
本文介绍了一种终端到终端的方法,用于研究攻击策略、设计防御代理并解释其运行。使用状态图可视化对抗行为,我们使用一组深入强化学习代理来训练不同任务部分并组织在浅层次结构中的防御模型,最终设计与之前工作相比性能有了实质性提高。最后,我们进行特征削弱和重要性研究来更好地研究我们代理的决策过程。
Jun, 2023
本文研究发现,基于深度强化学习的分类器同样存在容易受到篡改输入的对抗样本攻击,这导致了针对基于 DQNs 的策略诱导式攻击的出现。同时,我们验证了对抗性样本的可迁移性,提出了一种利用这种可迁移性的攻击机制,并通过对游戏学习场景的实验研究证明了其功效和影响。
Jan, 2017
本文主要介绍了第一项针对属性通用图的对抗攻击研究,特别关注利用图卷积思想的模型,在针对测试及训练阶段的攻击中生成针对节点特征和图结构的对抗扰动,并确保这些扰动在保存重要数据特征的同时,不被察觉,旨在帮助更好地理解和缓解目前深度学习模型在对抗环境下的不足。
May, 2018
本文针对电网控制系统的弱点进行研究,发现现有的强化学习算法存在敏感性,容易受到恶意攻击,提出了一种基于对抗训练的解决方案,以增强算法的安全性和鲁棒性。
Oct, 2021
本研究主要研究深度强化学习模型的脆弱性,针对相应的攻击方式进行了探究,并提出了黑盒攻击、在线顺序攻击等攻击方法来应对其高计算需求,同时探讨了攻击者扰动环境动态的可能性,并通过实验验证了这些攻击方式的有效性。
Jul, 2019
探索针对深度强化学习的对抗攻击,并提出两种攻击技术:关键点攻击和拮抗攻击,以提高鲁棒性,实验结果显示这两种技术比现有方法更具优势。
May, 2020