本文介绍了一种新型的基于心理声学隐蔽技术的对抗样本,利用 DNN 实现音频输入的提取并利用 backpropagation 算法实现对抗扰动的插入,成功攻击了最先进的语音识别系统,且人耳听不到插入的对抗扰动。
Aug, 2018
本篇论文针对语音分类模型进行了首次对抗攻击的研究,其算法成功实现了目标化攻击,并未改变人类听众对音频剪辑的感知。
Jan, 2018
本研究探讨语音和说话人识别系统的漏洞,并提出一种分类方法来评估此类漏洞。实验表明,对这些模型的攻击普遍失败,因此需要进一步的工作来提供充分的缓解措施。
Jul, 2020
本文提出了第一种实时、通用且强健的对抗攻击方案,能通过在任意用户的语音输入上添加通用扰动,在线进行万能识别。同时,利用房间脉冲响应 (RIR) 对声音失真进行建模,提高攻击的鲁棒性。在公共数据集上的实验表明,这种攻击的成功率高达 90% 以上,并且攻击速度比当代非通用攻击快 100 倍。
Mar, 2020
本文介绍了如何使用图像识别中的归因方法,结合音频数据,帮助可视化深度神经网络自动语音识别模型中输入的哪些特征对输出结果影响最大。通过比较 Layer-wise Relevance Propagation(LRP)、Saliency Maps 和 Shapley Additive Explanations(SHAP)这三种可视化技术,展示了归因方法的优势和应用前景,包括在检测对抗性样本方面。
Feb, 2022
本文研究基于语音命令技术的系统安全问题,针对目前已有的攻击方式进行了分析,提出了一种新的潜在威胁,通过嵌入在音乐中的语音命令对 ASR 系统进行远程控制。研究者针对技术难点进行了创新性的技术突破,并针对此类攻击提出了一种新的缓解方案。
本文介绍 ASR 系统及其攻击方式,分别从白盒与黑盒两个方面探讨对其语音波形的扰动,重点关注攻击的不同实现方法及对系统的影响。
Aug, 2022
本研究通过掌握音频信号处理算法背后的领域知识,成功实现了黑盒攻击,即针对声音处理系统注入隐藏命令,利用音频特征提取算法进行失真处理,从而攻击了 12 个机器学习模型,并在多个硬件配置中测试并证明其实效性。
Mar, 2019
研究使用自我监督学习的深度学习自动语音识别模型在临床设置中处理话语自然性上的困难,并探讨产生的错误对痴呆分类下游任务准确性的影响。结果表明,相对高错误率的自动语音识别系统可以产生更好的下游分类精度而非字面上的听写结果。
Nov, 2022
本论文通过应用深度迁移学习的自动语音识别框架对最新的发展进行综合调查研究,以帮助学术和专业人士了解当前挑战,并识别论文中每个框架的优缺点。
Apr, 2023