本研究提出了一种基于音频和视频流之间时间相关性的攻击检测方法,利用同步置信度得分作为音视频相关性代理来检测对音视频语音识别模型的对抗攻击,并在 GRID 和 LRW 数据集上的实验结果表明该方法是检测此类攻击的有效方式。
Dec, 2019
本论文通过利用听觉掩蔽原理,构造出在听觉上无法察觉的音频对抗样本,取得 100% 的针对性成功率,并且成功地构造出在真实环境噪音扰动下保持有效的针对性音频对抗样本。
Mar, 2019
利用白盒迭代优化算法针对 Mozilla 的 DeepSpeech 实现针对性的音频对抗性样本进行攻击,成功率为 100%,这种攻击的可行性引入了研究对抗性样本的新领域。
Jan, 2018
为了防止对基于机器学习的自动语音识别系统的攻击,我们提出了一种适用于任何预测每个时间步长输出令牌概率分布的 ASR 系统的对抗性示例检测策略。通过计算新音频的可能性,我们可以区分恶意输入和来自干净数据样本的方法,而不影响对质量较差音频的检测。
May, 2023
本文研究基于深度神经网络的音频处理模型容易受到对抗攻击的问题,提出了在激活空间中应用异常模式检测技术来检测对抗性样本,并可以在不降低对良性样本性能的情况下检测出两种最新的对抗攻击,AUC 最高可达 0.98。
Feb, 2020
本文采用进化算法和梯度估计两种方法, 结合黑盒攻击策略(不知道模型结构和参数)实现对语音自动识别系统的针对性攻击, 最终在保持音频文件相似度为 94.6% 的前提下,实现了 89.25% 的针对性攻击相似度。
May, 2018
我们构造了针对自动语音转文字系统的音频对抗样本,并将其应用于五种最先进的语音转文字系统,实验证明这些对抗样本可以欺骗机器,但人类可以轻易地辨识出其中的话语。这一攻击的可行性为研究机器和人类对话语的感知提供了一个新的领域。
Feb, 2021
本研究提出了一种生成音频对抗样本的方法,可以在实际场景中攻击一种最先进的语音识别模型。通过模拟播放或录制的变换并将这些变换融合到生成过程中,我们得到的对抗样本具有鲁棒性,能够在不被人类察觉的情况下进行攻击,这表明所提出的音频对抗样本可能会成为一个真正的威胁。
Oct, 2018
本文探讨了使用对抗性样本在训练语音识别系统中以增强深度神经网络声学模型的鲁棒性,结果表明相对于传统的数据通过数据转换技术实现的增强,动态利用当前声学模型参数生成对抗性样本的方法在 Aurora-4 和 CHiME-4 单通道实验中具有显著的改善表现。此外,将对抗性样本与老师 / 学生培训相结合,可以进一步提高识别准确率,Aurora-4 相对误差率降低了 23%。
Jun, 2018
本文介绍了一种新型的基于心理声学隐蔽技术的对抗样本,利用 DNN 实现音频输入的提取并利用 backpropagation 算法实现对抗扰动的插入,成功攻击了最先进的语音识别系统,且人耳听不到插入的对抗扰动。
Aug, 2018