无监督对比学习中的任意毒化攻击
对比学习已经在推荐领域取得了显著的流行度,但本文发现基于对比学习的推荐系统存在一个更易受污染攻击的漏洞,并通过实验证明了这一攻击模型的破坏性,以促进更强大的对比学习推荐系统的发展。
Nov, 2023
研究指出多模态对比学习方法训练在无噪声且未分类的数据集上可能导致后门和毒化攻击成为重要的威胁。通过少量的毒化数据,可以影响模型分类测试图片的准确性,这显然会影响训练数据集的质量。
Jun, 2021
本文研究了线性学习器的无差别毒化问题,发现如果类别数据分布良好分离且限制集的大小也很小,线性学习器就可以抵抗无差别毒化攻击,并对最新攻击策略的在不同数据集间性能差异做出理论解释。
Jul, 2023
用于训练数据的小扰动攻击机器学习模型的可用性数据中毒攻击有可能泛化到不同的学习算法和范式,并提出了可转移的中毒攻击来生成高频中毒扰动,该攻击具有显著改善的可转移性。
Oct, 2023
本文提出一种数据污染攻击 ——PoisonedEncoder,该攻击通过在无标签的预训练数据中注入精心制作的污染输入,为多目标下游任务构建基于受攻击者选择的中毒编码器的下游分类器,使得这些分类器将受攻击者选择的任意干净输入分类为受攻击者选择的任意类别,同时我们提出了一种针对对比度学习的方法来近似求解该数据污染攻击问题,并评估了五种针对 PoisonedEncoder 的防御策略。
May, 2022
在这篇论文中,我们研究了预训练特征提取器应用于后续任务时的数据污染攻击,主要包括输入空间攻击和特征目标攻击两种类型,实验结果表明后者对迁移学习更具威胁性。
Feb, 2024
本文研究了深度图像分类模型中毒的问题,提出了两种防御方案进行后处理,利用少量的受信任的图像标签对修复模型,防御效果优于现有的方案,并指出了检测 / 鲁棒性权衡关系和攻击的适应能力问题。
May, 2023
我们引入了一种针对算法公平性的优化框架,并开发了一种基于梯度的毒化攻击方法,旨在在数据的不同群体之间引入分类偏差,我们实验性地表明,我们的攻击不仅在白盒环境中有效,特别是在黑盒情况下,也对目标模型有很大影响,我们相信我们的发现为完全新的针对算法公平性在不同场景中的对抗攻击定义铺平了道路,并且研究这些漏洞将有助于未来设计更加稳健的算法和对策。
Apr, 2020
SAFECLIP 通过应用单模态对比学习预训练 CLIP 模型,通过逐渐增加安全子集的大小,有效地防止了有针对性的数据污染和后门攻击,而不损害 CLIP 在各种数据集上的性能。
Oct, 2023