研究发现存在一种针对强化学习的安全威胁,攻击者通过毒化学习环境的奖励和转移概率来强制执行特定的策略,提出了一种攻击代价度量的最优化框架,并在离线和在线两种情况下验证了攻击者可以通过一个优雅的攻击在很宽松的条件下让受害者代理执行任意策略,这表明强化学习代理在实践应用中存在很大的安全威胁。
Nov, 2020
本研究探讨了加强学习中的一种安全威胁,其中攻击者污染学习环境以强制代理执行攻击者选择的目标策略,提出了一个寻找不同攻击成本度量的 “最优隐蔽攻击” 的优化框架,并在两种环境(离线和在线)中实例化了攻击,揭示加强学习算法面临的重大安全威胁。
Mar, 2020
本研究考察了有关毒化攻击的 Reinforcement Learning 算法(强化学习算法)的安全威胁,发现了在有界奖励和无界奖励环境下,通过奖励毒化和行为毒化的组合可以实现对任何目标策略的操作,而在无界奖励环境下则只需要进行奖励毒化攻击就足以将任何高阶最优学习算法转化为任何目标策略,而不需要知道 MDP 的潜在特性,这些研究结果为设计强健性 RL 算法提供了有用的启示。
Aug, 2022
我们研究了利用深度神经网络进行函数逼近的一般离线强化学习中奖励污染攻击问题。我们提出了一种名为 `策略对比攻击` 的攻击策略,通过使一些低性能策略看起来像高性能策略,同时使高性能策略看起来像低性能策略来进行攻击。据我们所知,这是首个在一般离线强化学习环境中提出的黑盒奖励污染攻击。我们在攻击设计上提供了理论洞察,并通过在不同类型的学习数据集上实证表明我们的攻击对当前最先进的离线强化学习算法有效。
Feb, 2024
本文研究在线学习中的数据污染攻击,将其形式化为一类随机最优控制问题,并采用模型预测控制和深度强化学习方法解决。实验验证了该控制方法在监督学习和无监督学习任务中生成接近最优的攻击的有效性。
Mar, 2019
在两个代理环境中,研究了攻击者通过修改同伴的策略来隐性毒化其中一个代理器的有效环境的针对性中毒攻击,并提出了一个优化框架,用于设计最优攻击。通过实验展示了算法的有效性。
Feb, 2023
研究黑盒奖励污染攻击,设计了一种名为 U2 的新型黑盒攻击来操纵奖励以误导不知道先前知识的 RL 代理,进而学习一种恶意策略,可在最具挑战性的黑盒设置中实现接近最先进白盒攻击的性能。
Feb, 2021
该研究提出了一种针对强化学习的隐匿性数据污染攻击,使用最新的梯度对齐技术,仅对少量的训练数据进行最小限度的修改,而不需要对策略或奖励进行任何控制,目的在于仅在特定目标状态下导致智能体总体表现不佳,在两个难度不同的 Atari 游戏中进行了实验并取得了成功。
Jan, 2022
本文提出了防御策略,针对强化学习中的奖励污染攻击,并使用优化框架和性能保证来设计对抗策略。
本文提出了一种针对在线深度增强学习的黑盒定向攻击方法,通过在训练时进行奖励污染,攻击突破了未知环境和未知算法的限制,并且攻击成本较低。作者通过实验验证,在不同的环境和学习器中,攻击可以高效地导致学习代理到达各种目标策略。
May, 2023