隐蔽触发后门攻击
本文提出了一种新的视频后门攻击方法,使用通用对抗触发器在影响少量训练数据的情况下成功地攻击最新的视频识别模型,并表明这种新方法具有较强的对抗性和鲁棒性,同时能提高图片后门攻击的效果。
Mar, 2020
该论文研究了基于深度学习的认证系统对于后门攻击的脆弱性,特别是通过数据注入的后门攻击,通过注入极少的毒数据,攻击者可以成功实现攻击,进而窃取敏感信息,从而为后续研究防御策略提供了研究价值。
Dec, 2017
本文研究深度神经网络(DNN)中的后门攻击,提出了一种新的攻击方法,生成样本特定且不可见的添加噪声作为后门触发器,证明了该方法可以有效地攻击有或无防御机制的模型。
Dec, 2020
本文分析了后门攻击的特点,提出当测试图像中的触发器与训练中使用的不一致时,该攻击模式会变得更加脆弱,并讨论了如何缓解这种漏洞,以期启发更多针对后门属性的研究,从而更好地设计先进的后门攻击和防御方法。
Apr, 2021
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
研究表明:恶意后门注入是指将恶意行为隐藏在深度神经网络中,在输入数据不包含恶意触发器时行为正常,但含有特定触发器时会调用事先定义好的恶意行为,触发器可以采用不同形式,这可以通过替换或扰动一组图像像素来对原始图像应用滤镜进行操作。
Jul, 2020
该研究对针对深度神经网络的后门攻击进行了全面的调查,总结和分类现有的后门攻击和防御方法,并提供了分析基于攻击方法的中毒后门攻击的统一框架,并分析了后门攻击与相关领域(如敌对攻击和数据污染)的关系,同时总结了广泛采用的基准数据集。
Jul, 2020