本文提出了一种新颖的隐形后门攻击方法,该方法通过将触发器模式视为一种特殊噪声并以伯努利分布生成参数,从而在不影响正常输入的情况下利用训练集合并夹杂恶意信息,并考虑对多种最新防御措施的效果验证。
May, 2022
该论文研究了针对深度神经网络的后门攻击,并提出了通过改变触发器来防御后门攻击的方法。
Apr, 2020
本研究提出一种新颖的深度学习后门攻击方式,攻击者能够在训练过程中提供正常标注的毒瘤数据,并在毒瘤数据中隐藏触发器,待测试时再激活攻击,从而欺骗模型,而该攻击方式无法轻易通过最先进的后门攻击的防御算法进行防御。
Sep, 2019
本文研究深度神经网络(DNN)中的后门攻击,提出了一种新的攻击方法,生成样本特定且不可见的添加噪声作为后门触发器,证明了该方法可以有效地攻击有或无防御机制的模型。
Dec, 2020
本文提出一种新的神经后门攻击技术,其中触发器从输入到输入不同,通过基于输入的触发器生成器和交叉触发器测试实现触发器不可重用性,成功规避当前防御方法,从而实现神经后门攻击的隐蔽性。
Oct, 2020
该论文提出了一种基于触发器反向工程的方法来检测深度学习模型的后门攻击,该方法在实验中表现卓越,能完美地区分被套件攻击的模型和纯模型。
Jun, 2020
本文分析了后门攻击的特点,提出当测试图像中的触发器与训练中使用的不一致时,该攻击模式会变得更加脆弱,并讨论了如何缓解这种漏洞,以期启发更多针对后门属性的研究,从而更好地设计先进的后门攻击和防御方法。
Apr, 2021
在安全关键场景下,研究表明背门攻击可以在不修改神经网络模型的情况下实现,方法是在相机前放置一个精心设计的补丁(即背门补丁),它可以在大部分时间表现正常,并在输入图像包含攻击者控制的触发对象时产生错误预测。
Aug, 2023
本研究探讨了在能力限制内实施黑盒后门攻击的可能性,通过设计后门触发器,攻击者可以在没有参与训练过程或了解目标模型结构的情况下作为图像注释者或供应商从事此类攻击。实验结果表明,我们的方法在黑盒场景中实现了高攻击成功率,并逃过了最先进的后门防御。
Apr, 2023
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022