深强化学习交易代理的灰盒对抗攻击
通过使用序列到序列(sequence-to-sequence)模型和时序信息,本研究在黑盒攻击下预测和触发强化学习(reinforcement learning)代理的行为,并提出对先前论文中的缺陷进行了新的评估基准。
Sep, 2019
本文提出了针对强化学习的对抗攻击,并通过这些攻击提高了深度强化学习算法对参数不确定性的鲁棒性。我们展示了即使是一个简单的攻击也能成功降低深度强化学习算法的性能,并进一步使用工程丢失函数的梯度信息改进了攻击方法,导致性能进一步降低。这些攻击方法被用于训练中,以改善 RL 控制框架的鲁棒性。我们展示了在 Cart-pole,Mountain Car,Hopper 和 Half Cheetah 等 RL 基准测试环境中,对 DRL 算法进行对抗训练可以显著提高其对参数变化的鲁棒性。
Dec, 2017
本研究主要研究深度强化学习模型的脆弱性,针对相应的攻击方式进行了探究,并提出了黑盒攻击、在线顺序攻击等攻击方法来应对其高计算需求,同时探讨了攻击者扰动环境动态的可能性,并通过实验验证了这些攻击方式的有效性。
Jul, 2019
深度强化学习方法在算法性商品交易中的有效性进行了研究,提出了一种新的离散化方案,通过优化交易成本和风险敏感的交易代理来提高 DRL 模型的性能,并且该模型在天然气期货交易中表现出较高的夏普比率及一定的风险自定义能力。
Aug, 2023
本文调查了深度强化学习网络在训练时间和测试时间的对抗攻击中的鲁棒性,结果显示在非连续的训练时间攻击中,通过调整策略,Deep Q-Network (DQN) 代理能够恢复和适应对抗条件,相比较 ε- 贪婪和参数空间噪声探索方法,本文还对鲁棒性和抗干扰性进行了比较。
Dec, 2017
本文介绍了对抗性训练及其在构建鲁棒模型方面的应用,提出了新型白盒和黑盒攻击,即灰盒对抗攻击,提出了一种新颖的模型鲁棒性评估方法,并提出了一种新型的对抗性训练:灰盒对抗训练,其使用模型的中间版本来引导敌手生成更加有效的对抗样本,实验证明此方面的成果优于传统方法。
Aug, 2018
研究了机器学习在具备恶意状态 / 执行机构攻击下的表现,介绍了深度强化学习在决策和控制任务中存在漏洞的问题,提出了通过对抗训练来提高深度强化学习代理的抗干扰性以实现系统的稳定性和鲁棒性。
Jul, 2020
研究在决策类攻击领域提出了像素级决策驱动的黑盒攻击算法,该算法使用增强学习算法找到对抗性扰动分布,经实验证明,与现有技术相比更具攻击成功率和可转移性。
Nov, 2022