该论文研究了针对深度神经网络的后门攻击,并提出了通过改变触发器来防御后门攻击的方法。
Apr, 2020
本文提出了一种新颖的隐形后门攻击方法,该方法通过将触发器模式视为一种特殊噪声并以伯努利分布生成参数,从而在不影响正常输入的情况下利用训练集合并夹杂恶意信息,并考虑对多种最新防御措施的效果验证。
May, 2022
本研究提出一种新颖的深度学习后门攻击方式,攻击者能够在训练过程中提供正常标注的毒瘤数据,并在毒瘤数据中隐藏触发器,待测试时再激活攻击,从而欺骗模型,而该攻击方式无法轻易通过最先进的后门攻击的防御算法进行防御。
Sep, 2019
提出了一种新颖的后门攻击方法,通过使用预训练的受害模型从干净图像中提取低级和高级语义特征,并基于通道注意力生成与高级特征相关联的触发模式,然后使用编码器模型生成受污染的图像,同时维持对后门防御的鲁棒性,实验结果表明,该攻击方法在三个知名图像分类深度神经网络上取得了高攻击成功率,同时具有很好的隐秘性。
May, 2024
该论文通过在深度神经网络中嵌入不可察觉的触发器,实现了一种无形的后门攻击,旨在欺骗模型产生意外行为,同时提出了两种评估指标,评估攻击成功率、功能性和不可见性,并证明此方法可以有效地防范目前最先进的后门检测方法,例如神经网络清理和 TABOR。
本文分析了后门攻击的特点,提出当测试图像中的触发器与训练中使用的不一致时,该攻击模式会变得更加脆弱,并讨论了如何缓解这种漏洞,以期启发更多针对后门属性的研究,从而更好地设计先进的后门攻击和防御方法。
Apr, 2021
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
本文研究 DNN 后门攻击的触发模式,发现现有攻击可视或不稀疏,且不能简单组合以设计有效的稀疏和不可见后门攻击。因此,我们提出了一种有效方法来解决这个问题,称为 SIBA,将触发生成视为稀疏和不可见约束下的双层优化问题,并对基准数据集进行了广泛实验。
May, 2023
本文提出了一种名为 VSSC-trigger 的嵌入稳定扩散模型的新方法,使用文本触发器和良性图像生成对比度适当的图像,并解决了之前的不可见触发器在实际运用时出现的可见扭曲问题。
Jun, 2023
利用数据污染,添加即便微小干扰也能改变模型原本判断的样本分类,且添加的干扰本身难以被发现,同时在效率上有所提升的神经网络后门攻击方法。
Jan, 2023