Feb, 2021
强化学习中的奖励污染:对未知环境中的未知学习者的攻击
Reward Poisoning in Reinforcement Learning: Attacks Against Unknown Learners in Unknown Environments
Amin Rakhsha, Xuezhou Zhang, Xiaojin Zhu, Adish Singla
TL;DR研究黑盒奖励污染攻击,设计了一种名为 U2 的新型黑盒攻击来操纵奖励以误导不知道先前知识的 RL 代理,进而学习一种恶意策略,可在最具挑战性的黑盒设置中实现接近最先进白盒攻击的性能。