深度强化学习的白盒对抗策略
在零和游戏的模拟人形机器人中,使用拥有不良意图的对手智能体可以生成表面上看似随机无序的行为,以攻击通过自我对弈训练而具有抵抗敌方攻击鲁棒性的最新受害者,尤其在高维度环境中更加有效,且可以诱导受害策略网络的不同反应。
May, 2019
研究考虑攻击强化学习代理,其中对手通过对受害者的状态观察添加敌对修改来控制受害者的行为,提出了一种在黑盒和无盒设置中操纵受害者代理的新方法,无需特定环境启发式,并通过分布匹配问题解决现有的模仿学习算法,实证评估表明该方法攻击性能优于基准方法。
Jun, 2024
本研究通过训练一个能够模拟白盒攻击行为的更高效神经网络,证明了白盒攻击优化过程所隐含的知识可以被提取并泛化,可在黑盒情况下攻击 Google Perspective API 并暴露其脆弱性,扰乱 API 的预测结果,而人类对黄金标签的预测准确率仍然很高。
Apr, 2019
本文介绍了对抗性训练及其在构建鲁棒模型方面的应用,提出了新型白盒和黑盒攻击,即灰盒对抗攻击,提出了一种新颖的模型鲁棒性评估方法,并提出了一种新型的对抗性训练:灰盒对抗训练,其使用模型的中间版本来引导敌手生成更加有效的对抗样本,实验证明此方面的成果优于传统方法。
Aug, 2018
本文探究了深度强化学习中的对抗攻击,比较了使用对抗样本和随机噪声攻击的有效性,并提出了一种新的基于价值函数的方法来降低攻击的成功次数。此外,本文还研究了随机噪声和 FGSM 扰动对对抗攻击韧性的影响。
May, 2017
本文研究了对抗训练在提高图像分类器对白盒攻击的鲁棒性中的有效性,以及在黑盒攻击下的细微差别,并定义了鲁棒性增益的度量指标来衡量其效果。研究表明,尽管对抗训练是提高白盒场景下的鲁棒性的有效方法,但对于更现实的基于决策的黑盒攻击,则可能无法提供如此良好的鲁棒性增益。此外,即使是最小的扰动白盒攻击也可以比常规攻击更快地针对对抗训练过的神经网络收敛。
Jul, 2021
通过使用序列到序列(sequence-to-sequence)模型和时序信息,本研究在黑盒攻击下预测和触发强化学习(reinforcement learning)代理的行为,并提出对先前论文中的缺陷进行了新的评估基准。
Sep, 2019
通过在同一股票市场进行交易,该研究展示了利用混合深度神经网络作为策略的对抗智能代理能够对深度强化学习交易代理进行攻击,并且能够显著降低其奖励值,从而大幅减少基线系统、集成方法、以及工业合作伙伴开发的自动交易软件的潜在利润。
Sep, 2023
通过提出状态对抗马尔可夫决策过程 (SA-MDP) 的理论框架和一种新的策略正则化方法,并在多个强白盒对抗攻击中测试,我们成功地提高了一系列深层强化学习算法在离散和连续动作控制问题上的鲁棒性。
Mar, 2020