本研究研究了针对神经网络策略的对抗攻击,发现现有的对抗样本制作技术能够很好地降低训练策略的测试时间性能,并且一些小干扰就能引起显著性能下降。
Feb, 2017
本文探究了深度强化学习中的对抗攻击,比较了使用对抗样本和随机噪声攻击的有效性,并提出了一种新的基于价值函数的方法来降低攻击的成功次数。此外,本文还研究了随机噪声和FGSM扰动对对抗攻击韧性的影响。
May, 2017
本文提出了一种使用基于行为条件帧预测模块的防御机制,以防止深层强化学习代理遭受到对抗攻击,该方法可以检测到对抗性示例的存在,并允许代理在受到攻击时继续执行任务,在Atari 2600游戏中实验结果表明,该方法能够有效检测对抗性示例并在受攻击时获得较高的奖励。
Oct, 2017
在零和游戏的模拟人形机器人中,使用拥有不良意图的对手智能体可以生成表面上看似随机无序的行为,以攻击通过自我对弈训练而具有抵抗敌方攻击鲁棒性的最新受害者,尤其在高维度环境中更加有效,且可以诱导受害策略网络的不同反应。
May, 2019
该研究提出了一种新的威胁模型,即窃听威胁模型,它是针对强化学习的。通过训练代理模型,并利用敌对性示例的可转移性,敌对方在高度受限的威胁模型中仍然可以对目标代理发动毁灭性攻击。
探索针对深度强化学习的对抗攻击,并提出两种攻击技术:关键点攻击和拮抗攻击,以提高鲁棒性,实验结果显示这两种技术比现有方法更具优势。
May, 2020
通过强化学习实现攻击,在考虑攻击效果和匿名性的前提下,使用新的攻击性能指标对此方法进行评估,初步实验结果表明了该方法的有效性、鲁棒性和可转移性。
May, 2022
本文研究白盒子对抗策略的效果,发现黑盒子对抗相对于对抗策略而言效果较差,训练白盒子对抗可以提高单 agent 环境的鲁棒性。
Sep, 2022
在两个代理环境中,研究了攻击者通过修改同伴的策略来隐性毒化其中一个代理器的有效环境的针对性中毒攻击,并提出了一个优化框架,用于设计最优攻击。通过实验展示了算法的有效性。
Feb, 2023
本文研究在强化学习的多智能体环境中,攻击者通过对受害者智能体进行对抗性的过程来实施攻击,并提出了一种更一般化的攻击模型,通过攻击预算来实现对智能体的控制,可产生能够利用受害者智能体的隐蔽性对抗策略,同时提供了首个提供收敛证明的保护方案,以对抗最强的对抗性训练。
May, 2023