声音防御:语音转换的对抗攻击
本文考察了基于语音转换的匿名化方法,在三种攻击情景中比较了两种基于频率扭曲的转换方法和一种基于深度学习的方法,结果表明语音转换方案不能有效地防止具有广泛知识的攻击者,但可能为不太熟悉的攻击者提供一定的保护。
Nov, 2019
我们构造了针对自动语音转文字系统的音频对抗样本,并将其应用于五种最先进的语音转文字系统,实验证明这些对抗样本可以欺骗机器,但人类可以轻易地辨识出其中的话语。这一攻击的可行性为研究机器和人类对话语的感知提供了一个新的领域。
Feb, 2021
研究使用对抗学习来实现口音转换,能够将说话者的声音身份保留下来,并可将未知说话者的话语转换为多种口音,主观评估显示该模型生成更接近目标口音且类似于原说话者的音频。
Nov, 2022
本文研究了深度说话人识别系统所面临的对抗攻击问题,尝试了多种防御方法,并且实验证明了对抗攻击可能会导致准确度降至 0%,并且发现了以投影梯度下降为基础的对抗训练方法是最好的防御手段。
Aug, 2020
本文介绍了一种新型的基于心理声学隐蔽技术的对抗样本,利用 DNN 实现音频输入的提取并利用 backpropagation 算法实现对抗扰动的插入,成功攻击了最先进的语音识别系统,且人耳听不到插入的对抗扰动。
Aug, 2018
利用白盒迭代优化算法针对 Mozilla 的 DeepSpeech 实现针对性的音频对抗性样本进行攻击,成功率为 100%,这种攻击的可行性引入了研究对抗性样本的新领域。
Jan, 2018
本研究提出了一种生成音频对抗样本的方法,可以在实际场景中攻击一种最先进的语音识别模型。通过模拟播放或录制的变换并将这些变换融合到生成过程中,我们得到的对抗样本具有鲁棒性,能够在不被人类察觉的情况下进行攻击,这表明所提出的音频对抗样本可能会成为一个真正的威胁。
Oct, 2018
本文系统地探究了基于转换和对抗训练的防御策略,提出了 22 种不同的转换方法,深入评估它们在主要攻击手段下的防御能力,以及对其作用的理解,为进一步的研究提供了有用的洞见和发现,并创建了评估平台 SPEAKERGUARD。
Jun, 2022