该论文研究了基于深度学习的认证系统对于后门攻击的脆弱性,特别是通过数据注入的后门攻击,通过注入极少的毒数据,攻击者可以成功实现攻击,进而窃取敏感信息,从而为后续研究防御策略提供了研究价值。
Dec, 2017
提出了一种基于不兼容性属性的新型聚类机制,用于对抗深度神经网络面对的后门攻击,以识别和消除恶意数据,成功将攻击成功率降至低于1%。
May, 2021
本文提出一种名为反后门学习 (Anti-Backdoor Learning, ABL) 的方法,实现了在数据中注入后门的情况下对深度神经网络进行防御。采用两个阶段的梯度上升机制对数据进行处理,这样训练出的模型可以与只使用纯净数据训练的模型一样优秀。
Oct, 2021
该论文研究发现深度神经网络易受后门攻击影响,通过自监督学习和半监督微调等方法提出了一种解决方案,通过将原来的训练过程分解成三个阶段,有效地减轻了后门攻击带来的威胁。
Feb, 2022
本文研究了深度图像分类模型中毒的问题,提出了两种防御方案进行后处理,利用少量的受信任的图像标签对修复模型,防御效果优于现有的方案,并指出了检测/鲁棒性权衡关系和攻击的适应能力问题。
May, 2023
我们提出了一个有效的防御框架,该框架在数据预处理过程中注入非对抗性后门,以抵御深度神经网络面对后门攻击的威胁。在多个基准测试和代表性攻击的广泛实验中,我们的方法实现了业界领先的防御效果,在干净数据上性能下降极低。鉴于我们的框架展示的惊人防御能力,我们呼吁更多关注如何利用后门进行后门防御。
Jul, 2023
通过渐进隔离被污染数据的新方法 (PIPD),该论文提出了一种有效的训练策略,以训练一个干净的模型,并降低良性数据被错误分类为污染数据的风险。实验结果表明,PIPD 在多个数据集和 DNN 模型上均表现优异,对多种后门攻击的识别能力显著超过了现有方法。
Dec, 2023
通过使用预测熵来区分污染样本和良性样本,本文提出了一种新的双网络训练框架:受害者和受益者 (V&B),通过在可疑样本上训练受害者网络来检测有毒样本,然后用受害者选出的可信样本训练受益者网络以抑制后门注入,同时采用半监督抑制策略以消除潜在的后门,并提出了AttentionMix强大的数据增强方法来更好地抑制被错过的有毒样本,大量实验证明了我们的框架在防止后门注入和对抗各种攻击方面的有效性,并能保持良性样本上的性能。
Apr, 2024
通过利用纯净数据集训练的网络作为触发器生成器,该研究提出了一种新的触发器分类方法并开发了一种多标签和多负载的基于毒化的反向门攻击(PPT),该方法可以在不牺牲准确率的情况下在各种数据集上实现高攻击成功率。
May, 2024
深度神经网络对后门攻击和无标签攻击存在脆弱性,本研究探讨了只提供目标类数据的情况下,通过样本选择策略来提高后门攻击成功率,提出了一种更实用但也更具挑战性的威胁模型,并在基准数据集上验证了策略的有效性。
Jul, 2024