面对对抗攻击的自动语音识别模型最近的改进
该论文研究了定向对抗攻击自我训练的自动语音识别模型,发现现代自我训练的自动语音识别模型容易受到对抗攻击的影响,进一步揭示了现代 ASR 体系结构的安全威胁。
Sep, 2022
本文提出了基于多目标进化优化的黑盒攻击 Automatic Speech Recognition (ASR) 系统的框架,并将其应用于两个 ASR 系统:Deepspeech 和 Kaldi-ASR,成功地将这些系统的错误率提高了高达 980%。
Nov, 2018
本文研究比较德语与英语语音识别系统的攻击性漏洞,结果表明生成对抗样本所需的计算工作与其语言模型有关,并鼓励在 ASR 的鲁棒性分析中进一步研究与语言相关的特征。
Feb, 2022
本研究探讨语音和说话人识别系统的漏洞,并提出一种分类方法来评估此类漏洞。实验表明,对这些模型的攻击普遍失败,因此需要进一步的工作来提供充分的缓解措施。
Jul, 2020
本文采用进化算法和梯度估计两种方法, 结合黑盒攻击策略(不知道模型结构和参数)实现对语音自动识别系统的针对性攻击, 最终在保持音频文件相似度为 94.6% 的前提下,实现了 89.25% 的针对性攻击相似度。
May, 2018
本论文介绍一种基于神经预测的方法 ——NP-Attack,通过逐步演进搜索空间寻找小的对抗性扰动,实现通过较少的查询数目攻击音频样本的目标。实验结果表明,NP-Attack 与其他最先进的黑盒对抗攻击相比,具有竞争力的结果。
Mar, 2022
本文系统地探究了基于转换和对抗训练的防御策略,提出了 22 种不同的转换方法,深入评估它们在主要攻击手段下的防御能力,以及对其作用的理解,为进一步的研究提供了有用的洞见和发现,并创建了评估平台 SPEAKERGUARD。
Jun, 2022
这项研究评估了深度学习模型在语音情感识别中面临的对抗性攻击问题,发现 CNN-LSTM 模型对对抗示例非常脆弱,且攻击对不同语言和性别的影响差异较小。该研究为提高语音情感识别算法的鲁棒性,设计更有效的攻击、探究可能的防御方法以及加深我们对语言和性别差异的理解提供了基线数据。
Apr, 2024