通过声音元素实现针对语音识别的隐秘后门攻击
研究了语音识别系统中的后门攻击问题,并提出了一种非神经网络快速算法 Random Spectrogram Rhythm Transformation(RSRT),可以生成具有良好掩盖性的恶意语音样本,实验结果表明该方法具有良好的效果和隐蔽性。
Jun, 2024
利用数据污染,添加即便微小干扰也能改变模型原本判断的样本分类,且添加的干扰本身难以被发现,同时在效率上有所提升的神经网络后门攻击方法。
Jan, 2023
提出了一种名为 FlowMur 的隐蔽和实用的音频后门攻击方法,通过构建辅助数据集和代理模型,并优化触发器生成和数据污染过程,增强隐蔽性并提高攻击性能,从而成功实施了高效且难以被检测的后门攻击。
Dec, 2023
通过操纵音频的风格属性来欺骗语音识别系统的策略性投资型后门攻击(MarketBack)被研究,实验结果表明,当污染少于 1%的训练数据时,MarketBack 在七个受害模型中可实现接近 100%的平均攻击成功率。
Jun, 2024
本文研究深度神经网络(DNN)中的后门攻击,提出了一种新的攻击方法,生成样本特定且不可见的添加噪声作为后门触发器,证明了该方法可以有效地攻击有或无防御机制的模型。
Dec, 2020
提出了一种新颖的后门攻击方法,通过使用预训练的受害模型从干净图像中提取低级和高级语义特征,并基于通道注意力生成与高级特征相关联的触发模式,然后使用编码器模型生成受污染的图像,同时维持对后门防御的鲁棒性,实验结果表明,该攻击方法在三个知名图像分类深度神经网络上取得了高攻击成功率,同时具有很好的隐秘性。
May, 2024
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
本文通过设计基于聚类的攻击方案,展示了在训练数据中注入隐藏的后门以感染演讲者验证模型的可能性,并证明了现有的后门攻击无法直接用于演讲者验证。该方法不仅为设计新型攻击提供了新的视角,也为提高验证方法的鲁棒性提供了一个坚实的基础。
Oct, 2020
本文提出了一种新颖的隐形后门攻击方法,该方法通过将触发器模式视为一种特殊噪声并以伯努利分布生成参数,从而在不影响正常输入的情况下利用训练集合并夹杂恶意信息,并考虑对多种最新防御措施的效果验证。
May, 2022