提出了一种新颖的后门攻击方法,通过使用预训练的受害模型从干净图像中提取低级和高级语义特征,并基于通道注意力生成与高级特征相关联的触发模式,然后使用编码器模型生成受污染的图像,同时维持对后门防御的鲁棒性,实验结果表明,该攻击方法在三个知名图像分类深度神经网络上取得了高攻击成功率,同时具有很好的隐秘性。
May, 2024
本研究介绍一种新的深度学习技术,可用于抵御针对文本分类模型的后门攻击,能够无需访问攻击类型和训练资源的情况下自我防御并具有高准确性。
Oct, 2022
本文提出了一种新的视频后门攻击方法,使用通用对抗触发器在影响少量训练数据的情况下成功地攻击最新的视频识别模型,并表明这种新方法具有较强的对抗性和鲁棒性,同时能提高图片后门攻击的效果。
Mar, 2020
训练大规模数据集很昂贵,因此一种模型仅训练一次并多次使用。我们展示了一种更高效的通用数据中毒攻击方法,通过少量的中毒样本,可以控制从任意源类到任意目标类的误分类。我们的触发器利用了一种称为跨类中毒可转移性的现象,从而使模型对其他类别的触发器更易受攻击。我们通过仅中毒训练数据集的 0.15%来控制高达 6,000 个类的模型的有效性和鲁棒性。
Nov, 2023
提出了一个面向多个数据贡献者的普适性防御框架,该框架利用半监督集成和众包学习过滤对抗触发器生成的错误标签,以对抗严重的对图像分类的对抗后门攻击。
May, 2022
本文介绍了一种针对视频数据的简单而有效的后门攻击方法,通过在转化域中添加微不可见、时间分布的触发器来跨视频帧进行攻击,并在对 UCF101、HMDB51 和希腊手语(GSL)数据集进行了广泛的实验验证其有效性,同时通过深入研究发现一种称为 “附带损害” 的有趣效应。
Aug, 2023
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
本研究提出了一种针对深度神经网络的动态后门技术,该技术具有随机模式和位置,其生成的触发器降低了当前后门检测机制的有效性,可很好地规避当前防御后门攻击的最先进机制,并在 MNIST、CelebA 和 CIFAR-10 数据集上取得了几乎完美的攻击结果,极小化实用性损失。
该研究提出了一种名为 BadVFL 的新型攻击方法,旨在向受害模型注入后门触发器,无需标签信息,并通过 SDD 模块和 SDP 模块实现了攻击的高攻击成功率,是一种有效的针对垂直联邦学习中潜在安全风险的方案。
Jun, 2023
本研究提出一种新颖的深度学习后门攻击方式,攻击者能够在训练过程中提供正常标注的毒瘤数据,并在毒瘤数据中隐藏触发器,待测试时再激活攻击,从而欺骗模型,而该攻击方式无法轻易通过最先进的后门攻击的防御算法进行防御。
Sep, 2019