此研究考虑了数据污染攻击领域,并对在线学习中的数据污染攻击进行了系统性研究,采用了一种优化策略并提出了三种解决方案,最终讨论了防御成功所需的因素。
Aug, 2018
介绍机器学习系统中数据集安全领域的各种潜在威胁及其防御方法,并提出解决这些问题的未解之谜。
Dec, 2020
对使用用户提供数据训练的机器学习系统进行的数据毒化攻击问题进行了探讨,构建了数据异常移除后采用经验风险最小化的防御方法下的攻击损失上限并给出了攻击方法,检验了在 MNIST-1-7,Dogfish 数据集上其防御能力较强,而在 IMDB 情感数据集上加入 3% 的毒化数据可将测试误差从 12% 提升至 23%。
Jun, 2017
本论文重点评估了代表聚合防御的 Deep Partition Aggregation 的实用方面,包括效率、性能和鲁棒性,通过使用 ImageNet 进行评估,提供了有价值的洞见,以缓解数据中毒的威胁。
Jun, 2023
本文对过去 15 年来关于机器学习中中毒攻击和防御的 100 多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
May, 2022
本文研究机器学习模型在训练时通过数据毒化攻击注入恶意数据点的危害以及数据清洗防御措施的不足。通过协调毒化点放置位置和基于约束条件设计攻击的方式,开发三种不同方法规避现有的数据清洗防御措施。这些攻击方法均基于耗时的二级规划问题,并通过影响函数,极小 - 极大假说和 Karush-Kuhn-Tucker(KKT)条件来实现。我们的实验结果表明需要开发更稳健的数据清洗防御措施以应对数据毒化攻击的威胁。
Nov, 2018
介绍了一种针对协同过滤系统的数据污染攻击,并提出了对两种流行的矩阵分解协同过滤算法的有效解决方案,同时在实际数据上测试了所提出算法的有效性和可能的防御策略。
Aug, 2016
本文综述了机器学习分类器训练中的数据污染攻击的安全漏洞,并介绍了几种可行的检测和缓解机制,比较了不同方法的性能以及固有属性,如可靠性、隐私和可解释性。同时,提供了未来研究方向的参考。
Feb, 2022
本文介绍了一种名为 “亚群体攻击” 的数据篡改攻击方法,对于大型和多样化的数据集非常不利,此攻击方法可以使在推理时间内自然分布的数据点产生错误分类,具有缺乏显著性的特点,并表明了现有的保护机制的局限性。
Jun, 2020
本文研究了数据污染和后门攻击对训练数据的影响,发现数据污染是常见的安全威胁之一,但目前还不清楚这些攻击方法的危害程度,我们通过开发标准基准来促进未来工作的公平比较。