本文研究 DNN 后门攻击的触发模式,发现现有攻击可视或不稀疏,且不能简单组合以设计有效的稀疏和不可见后门攻击。因此,我们提出了一种有效方法来解决这个问题,称为 SIBA,将触发生成视为稀疏和不可见约束下的双层优化问题,并对基准数据集进行了广泛实验。
May, 2023
本文提出了一种名为 DUBA 的双重隐蔽后门攻击方法,该方法同时考虑了触发器在时域和频域中的隐蔽性,以实现理想的攻击性能并确保强大的隐蔽性。通过在干净图像中嵌入触发器图像的高频信息,采用傅里叶变换和离散余弦变换在频域中混合毒害图像和干净图像,并采用一种新的攻击策略来进一步提高攻击性能和隐蔽性。对四个数据集上的流行图像分类器进行了广泛评估,结果表明 DUBA 在攻击成功率和隐蔽性方面明显优于现有的后门攻击方法。
Jul, 2023
提出了一种新颖的后门攻击方法,通过使用预训练的受害模型从干净图像中提取低级和高级语义特征,并基于通道注意力生成与高级特征相关联的触发模式,然后使用编码器模型生成受污染的图像,同时维持对后门防御的鲁棒性,实验结果表明,该攻击方法在三个知名图像分类深度神经网络上取得了高攻击成功率,同时具有很好的隐秘性。
May, 2024
该论文通过在深度神经网络中嵌入不可察觉的触发器,实现了一种无形的后门攻击,旨在欺骗模型产生意外行为,同时提出了两种评估指标,评估攻击成功率、功能性和不可见性,并证明此方法可以有效地防范目前最先进的后门检测方法,例如神经网络清理和 TABOR。
Sep, 2019
本文提出了一种新颖的隐形后门攻击方法,该方法通过将触发器模式视为一种特殊噪声并以伯努利分布生成参数,从而在不影响正常输入的情况下利用训练集合并夹杂恶意信息,并考虑对多种最新防御措施的效果验证。
May, 2022
本文研究深度神经网络(DNN)中的后门攻击,提出了一种新的攻击方法,生成样本特定且不可见的添加噪声作为后门触发器,证明了该方法可以有效地攻击有或无防御机制的模型。
Dec, 2020
本文提出了一种名为 VSSC-trigger 的嵌入稳定扩散模型的新方法,使用文本触发器和良性图像生成对比度适当的图像,并解决了之前的不可见触发器在实际运用时出现的可见扭曲问题。
Jun, 2023
该论文研究发现深度神经网络易受后门攻击影响,通过自监督学习和半监督微调等方法提出了一种解决方案,通过将原来的训练过程分解成三个阶段,有效地减轻了后门攻击带来的威胁。
Feb, 2022
在该研究中,我们提出了一种有效的基于掩码的不可见后门攻击目标检测技术,并针对目标消失、目标错误分类和目标生成三种攻击场景进行了全面的实验,以确定有效的防御方法。
Mar, 2024
本文研究了深度神经网络中的后门污染问题,提出了一种基于 EM 算法的攻击检测技术,可有效识别出攻击样本,包括新的污染数据攻击,并且对于攻击方的规避尝试也具有较强的鲁棒性。
Aug, 2019