本文通过设计基于聚类的攻击方案,展示了在训练数据中注入隐藏的后门以感染演讲者验证模型的可能性,并证明了现有的后门攻击无法直接用于演讲者验证。该方法不仅为设计新型攻击提供了新的视角,也为提高验证方法的鲁棒性提供了一个坚实的基础。
Oct, 2020
本文提出了利用声调与音色来设计更隐蔽但有效的语音后门攻击方式,通过实验验证了该方法在各种设置下的有效性和隐蔽性。
Jul, 2023
使用 Voiceprint Selection 和 Voice Conversion 的后门攻击方案可以成功地攻击基于深度神经网络的关键词识别系统,从而引起误判。
Dec, 2022
通过操纵音频的风格属性来欺骗语音识别系统的策略性投资型后门攻击(MarketBack)被研究,实验结果表明,当污染少于 1%的训练数据时,MarketBack 在七个受害模型中可实现接近 100%的平均攻击成功率。
Jun, 2024
本文提出了一种新的方法,将包含触发器的输入直接映射到预训练 NLP 模型的预定义输出表示,而不是目标标签,从而可以将后门引入广泛的下游任务中,而无需任何先前的知识,通过各种触发器类型的实验,论证了该方法对于不同的分类和命名实体识别等微调任务以及不同的模型(如 BERT、XLNet、BART)是普适的,并且不可避免地引入了严重威胁。
Oct, 2021
本研究介绍一种新的深度学习技术,可用于抵御针对文本分类模型的后门攻击,能够无需访问攻击类型和训练资源的情况下自我防御并具有高准确性。
Oct, 2022
本研究提出一种新颖的深度学习后门攻击方式,攻击者能够在训练过程中提供正常标注的毒瘤数据,并在毒瘤数据中隐藏触发器,待测试时再激活攻击,从而欺骗模型,而该攻击方式无法轻易通过最先进的后门攻击的防御算法进行防御。
Sep, 2019
本研究通过掌握音频信号处理算法背后的领域知识,成功实现了黑盒攻击,即针对声音处理系统注入隐藏命令,利用音频特征提取算法进行失真处理,从而攻击了 12 个机器学习模型,并在多个硬件配置中测试并证明其实效性。
Mar, 2019
本文提出通过嵌入本质隐形且难以检测的触发器进行的 NLP 背门攻击,该攻击能超过多项 NLP 任务,例如有害评论检测,机器翻译和问答系统,能在维持正常使用的正常用户的同时,在不经意间实施高成功率的攻击。
May, 2021
本研究提出了针对 NLP 模型的 “自然后门攻击”,对文本数据进行触发器生成,并研究了不同类型的触发器,最终在文本分类任务上实现了 100% 的后门攻击成功率和 0.83% 的牺牲。
Jun, 2020