干净标签背门攻击的泛化界限和新算法
该研究提出了一种对图卷积网络(GCNs)进行干净图后门攻击(CBAG)的方法,在节点分类任务中仅通过污染训练标签而不对训练样本进行任何修改,揭示了 GCNs 的安全漏洞。实验结果表明,我们的干净图后门攻击能够在保持 GCNs 模型正常功能的同时实现 99% 的攻击成功率。
Apr, 2024
本文提出了一种不需要外部触发器、带有正确标签的文本后门攻击策略,通过基因算法生成干净的例子,这些干净的例子的标签是正确的,试验表明这种攻击策略不仅有效,而且由于没有触发器和干净的标签,很难防御,是在 NLP 领域研发无触发器攻击策略的第一步。
Nov, 2021
本文提出一种名为反后门学习 (Anti-Backdoor Learning, ABL) 的方法,实现了在数据中注入后门的情况下对深度神经网络进行防御。采用两个阶段的梯度上升机制对数据进行处理,这样训练出的模型可以与只使用纯净数据训练的模型一样优秀。
Oct, 2021
该论文研究了基于深度学习的认证系统对于后门攻击的脆弱性,特别是通过数据注入的后门攻击,通过注入极少的毒数据,攻击者可以成功实现攻击,进而窃取敏感信息,从而为后续研究防御策略提供了研究价值。
Dec, 2017
通过未经过修改的标签中的错误标签注入,我们提出了清洁图像后门攻击,揭示了后门仍然可以通过错误标签的一小部分分数进行注入,从而对图像分类模型的公正性和鲁棒性造成严重威胁,需要对外包标注中的错误标签保持警惕。
Mar, 2024
现代机器学习流程利用大量公开数据,导致无法保证数据质量,使得模型容易遭受中毒和后门攻击。本论文提出了一个框架,首次提供了有关使用潜在操纵数据进行训练的模型行为的可证明保证。该框架通过使用凸松弛来近似计算可能的参数更新集合,限制了任何梯度下降学习算法的所有可达参数集合,并提供模型性能和后门成功率的最坏情况行为的界限。该方法在能源消耗、医学成像和自动驾驶等应用的多个真实世界数据集上进行了演示。
Jun, 2024
传统图神经网络领域中的后门攻击因混淆的标签而容易被检测,为了探索图神经网络的后门漏洞并创建更隐秘的后门攻击方法,本文提出了一种基于无干扰节点分类任务的干净标签图后门攻击方法(CGBA)。与已有的后门攻击方法不同,CGBA 既不需要修改节点标签也不需要修改图结构。具体而言,为了解决样本内容与标签不一致的问题,CGBA 在特定目标类中选择污染样本,并将样本的标签(即干净标签)作为目标标签注入到目标样本中。为了保证相邻节点的相似性,CGBA 精心选择节点的原始特征作为触发器,进一步提高触发器的隐蔽性。广泛实验结果表明我们的方法的有效性。当污染率为 0.04 时,CGBA 可以分别实现 87.8%、98.9%、89.1% 和 98.5% 的平均攻击成功率。
Dec, 2023
本研究提出一种新颖的深度学习后门攻击方式,攻击者能够在训练过程中提供正常标注的毒瘤数据,并在毒瘤数据中隐藏触发器,待测试时再激活攻击,从而欺骗模型,而该攻击方式无法轻易通过最先进的后门攻击的防御算法进行防御。
Sep, 2019
本文提出了一种新的视频后门攻击方法,使用通用对抗触发器在影响少量训练数据的情况下成功地攻击最新的视频识别模型,并表明这种新方法具有较强的对抗性和鲁棒性,同时能提高图片后门攻击的效果。
Mar, 2020
本文实验证明了增量学习算法在处理时间序列中存在可利用的后门攻击,在多个学习场景中,攻击者可以通过污染极小部分的数据,影响包括先前的未知任务和后续任务,同时提出了通过激活聚类的防御机制,用于检测和减轻潜在的安全风险。
May, 2023