重新思考后门攻击触发器:一个频率的视角
本文提出了一种名为 DUBA 的双重隐蔽后门攻击方法,该方法同时考虑了触发器在时域和频域中的隐蔽性,以实现理想的攻击性能并确保强大的隐蔽性。通过在干净图像中嵌入触发器图像的高频信息,采用傅里叶变换和离散余弦变换在频域中混合毒害图像和干净图像,并采用一种新的攻击策略来进一步提高攻击性能和隐蔽性。对四个数据集上的流行图像分类器进行了广泛评估,结果表明 DUBA 在攻击成功率和隐蔽性方面明显优于现有的后门攻击方法。
Jul, 2023
本文提出了一种基于频率的触发器注入模型,针对训练好的图像压缩模型进行多触发器的后门攻击,攻击目标包括压缩质量和任务驱动的度量,并设计了一种简单的动态损失函数以平衡不同损失项的影响,实验结果表明我们的提出的攻击方法能够成功地在单个图像压缩模型中注入多个后门触发器。
Feb, 2023
本文提出了一种新颖的隐形后门攻击方法,该方法通过将触发器模式视为一种特殊噪声并以伯努利分布生成参数,从而在不影响正常输入的情况下利用训练集合并夹杂恶意信息,并考虑对多种最新防御措施的效果验证。
May, 2022
本研究提出一种新颖的深度学习后门攻击方式,攻击者能够在训练过程中提供正常标注的毒瘤数据,并在毒瘤数据中隐藏触发器,待测试时再激活攻击,从而欺骗模型,而该攻击方式无法轻易通过最先进的后门攻击的防御算法进行防御。
Sep, 2019
本文分析了后门攻击的特点,提出当测试图像中的触发器与训练中使用的不一致时,该攻击模式会变得更加脆弱,并讨论了如何缓解这种漏洞,以期启发更多针对后门属性的研究,从而更好地设计先进的后门攻击和防御方法。
Apr, 2021
本文提出一种新的神经后门攻击技术,其中触发器从输入到输入不同,通过基于输入的触发器生成器和交叉触发器测试实现触发器不可重用性,成功规避当前防御方法,从而实现神经后门攻击的隐蔽性。
Oct, 2020
本文研究了深度神经网络在对比干净数据样本和污染数据样本时的频率敏感性,发现两种数据样本的频率敏感性存在显著差异。利用这些发现,我们提出了一种名为 FREAK 的基于频率的污染样本检测算法,展现了其在频率后门攻击和部分空间攻击中的高效性。本研究为未来的后门防御研究和开发提供了基础。
Mar, 2023
我们提出了一种强鲁棒性的低频黑盒后门攻击 (LFBA),通过最小干扰频率频谱的低频部分并同时在空间空间中保持感知相似性,将触发耦合在受害分类器之外并具有高攻击性、对图像转换防御的强鲁棒性和隐蔽性。
Feb, 2024