对唤醒词检测系统的音频对抗攻击:敌对音乐实战
我们构造了针对自动语音转文字系统的音频对抗样本,并将其应用于五种最先进的语音转文字系统,实验证明这些对抗样本可以欺骗机器,但人类可以轻易地辨识出其中的话语。这一攻击的可行性为研究机器和人类对话语的感知提供了一个新的领域。
Feb, 2021
利用白盒迭代优化算法针对 Mozilla 的 DeepSpeech 实现针对性的音频对抗性样本进行攻击,成功率为 100%,这种攻击的可行性引入了研究对抗性样本的新领域。
Jan, 2018
本研究提出了一种生成音频对抗样本的方法,可以在实际场景中攻击一种最先进的语音识别模型。通过模拟播放或录制的变换并将这些变换融合到生成过程中,我们得到的对抗样本具有鲁棒性,能够在不被人类察觉的情况下进行攻击,这表明所提出的音频对抗样本可能会成为一个真正的威胁。
Oct, 2018
本文提出了第一种实时、通用且强健的对抗攻击方案,能通过在任意用户的语音输入上添加通用扰动,在线进行万能识别。同时,利用房间脉冲响应 (RIR) 对声音失真进行建模,提高攻击的鲁棒性。在公共数据集上的实验表明,这种攻击的成功率高达 90% 以上,并且攻击速度比当代非通用攻击快 100 倍。
Mar, 2020
本研究介绍了一种新的针对深度学习音频系统的对抗性攻击方法 SirenAttack,其特点包括多功能性,有效性和隐蔽性,同时也提出了三种缓解此类攻击的方法。
Jan, 2019
本论文通过利用听觉掩蔽原理,构造出在听觉上无法察觉的音频对抗样本,取得 100% 的针对性成功率,并且成功地构造出在真实环境噪音扰动下保持有效的针对性音频对抗样本。
Mar, 2019
通过对无声攻击进行的分析,我们确认安全风险因素为 7.6(满分为 10),突显了 NIST 国家漏洞数据库(NVD)独立评分的重大安全漏洞。我们的基线网络模型展示了一个攻击者使用无声语音命令来未经授权地访问安全笔记本中的机密信息的情景。我们在该基线网络模型上模拟了许多攻击场景,揭示了通过物理访问和不添加新硬件或放大设备技能即可发现和掌握特权信息的潜力。我们使用微软的 CyberBattleSim 框架评估了六种强化学习算法,并发现 Deep-Q 学习与利用相结合的方法最佳,可以在较少的步骤中迅速掌控所有节点。我们的发现强调了在不断扩大的数字化环境中,尤其是由移动设备、语音激活和容易受到恶意行为者进行隐蔽攻击的非常规网络和新的网络安全措施的紧迫性。到 2024 年,这个新的攻击面可能包括比地球上的人更多的数字助手,但是却比常规的修补程序或固件修复提供更少的解决方案,因为无声攻击源自于麦克风设计和数字信号处理。
Jul, 2023
本文采用进化算法和梯度估计两种方法, 结合黑盒攻击策略(不知道模型结构和参数)实现对语音自动识别系统的针对性攻击, 最终在保持音频文件相似度为 94.6% 的前提下,实现了 89.25% 的针对性攻击相似度。
May, 2018