此研究考虑了数据污染攻击领域,并对在线学习中的数据污染攻击进行了系统性研究,采用了一种优化策略并提出了三种解决方案,最终讨论了防御成功所需的因素。
Aug, 2018
本研究针对批量强化学习和控制中的安全威胁进行了探讨,该攻击旨在污染所学策略。案例针对强化学习中的表格确定等价学习器和控制中的线性二次调节器进行了实例化,并表明了两个实例均可实现全局最优解。
Oct, 2019
我们研究了利用深度神经网络进行函数逼近的一般离线强化学习中奖励污染攻击问题。我们提出了一种名为 `策略对比攻击` 的攻击策略,通过使一些低性能策略看起来像高性能策略,同时使高性能策略看起来像低性能策略来进行攻击。据我们所知,这是首个在一般离线强化学习环境中提出的黑盒奖励污染攻击。我们在攻击设计上提供了理论洞察,并通过在不同类型的学习数据集上实证表明我们的攻击对当前最先进的离线强化学习算法有效。
Feb, 2024
该论文系统研究了线性回归模型中的污染攻击和其对策,提出了一个特定于线性回归的理论优化框架,并设计了一种面对污染攻击高度抗干扰的新型防御方法。
Apr, 2018
本文提出针对在线学习排名的对抗攻击研究,依托排名列表污染来攻击 OLTR 算法,实验结果验证了该攻击策略的有效性和成本效益。
May, 2023
本文对过去 15 年来关于机器学习中中毒攻击和防御的 100 多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
May, 2022
本文从控制理论角度研究了在线学习中攻击者可以利用教师 - 学生设置扰动数据标签来操纵学习动态的情境,通过考虑不同的攻击策略并获取简单线性学习者的稳态的分析结果得出,当攻击强度超过关键阈值时,学习者准确度会出现不连续转变的结论,并利用真实数据对具有复杂架构的学习器进行了实证攻击,证实了理论分析中的洞见,表明贪婪攻击特别是在数据流程以小批量形式时可以非常有效。
本文提出了一种针对在线深度增强学习的黑盒定向攻击方法,通过在训练时进行奖励污染,攻击突破了未知环境和未知算法的限制,并且攻击成本较低。作者通过实验验证,在不同的环境和学习器中,攻击可以高效地导致学习代理到达各种目标策略。
用于训练数据的小扰动攻击机器学习模型的可用性数据中毒攻击有可能泛化到不同的学习算法和范式,并提出了可转移的中毒攻击来生成高频中毒扰动,该攻击具有显著改善的可转移性。
Oct, 2023
本文分析了数据污染攻击在上下文匹配个体决策中的应用及其攻击机制,并在实验中展示了这种攻击算法的效率。