深度强化学习的窃听攻击
该研究探讨了反馈学习中的背门污染攻击,发现前期工作无法横跨领域和 Markov 决策过程进行泛化,所以提出了一种新的攻击框架并开发了 SleeperNets,以提高攻击成功率,并同时保持良性回报。
May, 2024
本研究主要研究深度强化学习模型的脆弱性,针对相应的攻击方式进行了探究,并提出了黑盒攻击、在线顺序攻击等攻击方法来应对其高计算需求,同时探讨了攻击者扰动环境动态的可能性,并通过实验验证了这些攻击方式的有效性。
Jul, 2019
本文首次探讨了深度强化学习中可能泄露隐私信息的情况,并提出了两种方法来推断训练后代理的潜在隐私信息。作者在不同情境下进行了大量实验并表明以上两种方法可以有效地从训练后的代理中推断出敏感地图信息。
Apr, 2019
通过对网络入侵检测系统进行基于机器学习的威胁模拟,发现现有文献中的威胁模型不适用于实际的网络安全情景,因此,有必要加强现有防御系统以及探索更加真实和有效的对抗方式。
Jun, 2021
本文提出利用时间侧信道攻击来推断神经网络模型深度的黑盒神经网络提取攻击,使用知识蒸馏和强化学习,有效减少了搜索空间,可以构造出与目标模型测试精度接近的替代模型,且该方法可扩展,并与神经网络结构类型无关。
Dec, 2018
研究考虑攻击强化学习代理,其中对手通过对受害者的状态观察添加敌对修改来控制受害者的行为,提出了一种在黑盒和无盒设置中操纵受害者代理的新方法,无需特定环境启发式,并通过分布匹配问题解决现有的模仿学习算法,实证评估表明该方法攻击性能优于基准方法。
Jun, 2024
为确保强化学习在真实系统中的可用性,需要保证其对噪声和对抗性攻击具有鲁棒性。本文研究在线操纵攻击的全类攻击形式,包括状态攻击、观察攻击、行动攻击和奖励攻击。我们通过马尔可夫决策过程(MDP)对隐藏在攻击交互中的元级环境进行建模,并展示了该攻击者设计隐蔽攻击以最大化其预期收益(通常对应于减小受害者价值)的问题。我们证明攻击者可以通过规划或使用标准强化学习技术进行学习,以多项式时间或多项式样本复杂度确定最优攻击策略。我们认为受害者的最优防御策略可以通过解决随机 Stackelberg 博弈获得,该博弈可以简化为部分可观察的交替轮流随机博弈(POTBSG)。攻击者和受害者都不会从偏离各自最优策略中获益,因此这些解决方案具有真正的鲁棒性。虽然防御问题是 NP 困难的,但我们证明在许多情况下最优马尔可夫防御策略可以在多项式时间(样本复杂度)内计算(学习)。
Nov, 2023
该研究提出了一种针对强化学习的隐匿性数据污染攻击,使用最新的梯度对齐技术,仅对少量的训练数据进行最小限度的修改,而不需要对策略或奖励进行任何控制,目的在于仅在特定目标状态下导致智能体总体表现不佳,在两个难度不同的 Atari 游戏中进行了实验并取得了成功。
Jan, 2022