无声音声命令
通过对无声攻击进行的分析,我们确认安全风险因素为 7.6(满分为 10),突显了 NIST 国家漏洞数据库(NVD)独立评分的重大安全漏洞。我们的基线网络模型展示了一个攻击者使用无声语音命令来未经授权地访问安全笔记本中的机密信息的情景。我们在该基线网络模型上模拟了许多攻击场景,揭示了通过物理访问和不添加新硬件或放大设备技能即可发现和掌握特权信息的潜力。我们使用微软的 CyberBattleSim 框架评估了六种强化学习算法,并发现 Deep-Q 学习与利用相结合的方法最佳,可以在较少的步骤中迅速掌控所有节点。我们的发现强调了在不断扩大的数字化环境中,尤其是由移动设备、语音激活和容易受到恶意行为者进行隐蔽攻击的非常规网络和新的网络安全措施的紧迫性。到 2024 年,这个新的攻击面可能包括比地球上的人更多的数字助手,但是却比常规的修补程序或固件修复提供更少的解决方案,因为无声攻击源自于麦克风设计和数字信号处理。
Jul, 2023
本文介绍了 DolphinAttack,一种通过超声波搭载语音命令实现的攻击方式,可以对各种流行语音识别系统进行控制,并提出了对抗该攻击的方法及建议。
Aug, 2017
我们研究了无声声波攻击对数字助手的新兴威胁,这是一个重要问题,因为预计到 2024 年,数字助手的普及度将超过全球人口总数。我们的研究扩展了这些攻击在亚马逊的 Alexa、Android、iOS 和 Cortana 等各种平台上的可行性,揭示了智能设备的重大漏洞。我们鉴别出了 12 种攻击向量,其中包括对智能家居设备和汽车系统的成功操纵、军事通信的潜在破坏以及关键基础设施安全面临的挑战。我们定量显示攻击成功率在 60% 左右,并且能够从 100 英尺以外远程激活设备。此外,这些攻击威胁到关键基础设施,强调了采用声学屏蔽、先进信号处理、机器学习和强大用户身份验证相结合的多方面防御策略以减轻这些风险的必要性。
Nov, 2023
本研究探讨了使用近超声波特洛伊木马对亚马逊 Alexa 语音服务进行主要听不见攻击的攻击向量,重点在于表征攻击面和检查发出听不见的语音命令的实际影响。
Apr, 2023
本研究通过掌握音频信号处理算法背后的领域知识,成功实现了黑盒攻击,即针对声音处理系统注入隐藏命令,利用音频特征提取算法进行失真处理,从而攻击了 12 个机器学习模型,并在多个硬件配置中测试并证明其实效性。
Mar, 2019
本文研究基于语音命令技术的系统安全问题,针对目前已有的攻击方式进行了分析,提出了一种新的潜在威胁,通过嵌入在音乐中的语音命令对 ASR 系统进行远程控制。研究者针对技术难点进行了创新性的技术突破,并针对此类攻击提出了一种新的缓解方案。
Jan, 2018
本文介绍了一种新型的基于心理声学隐蔽技术的对抗样本,利用 DNN 实现音频输入的提取并利用 backpropagation 算法实现对抗扰动的插入,成功攻击了最先进的语音识别系统,且人耳听不到插入的对抗扰动。
Aug, 2018
论文报告了首次对语音转换进行对抗性攻击的尝试,以保护用户的隐私和身份识别。在两个现有的零样本语音转换模型上进行了实验,显示攻击样本具有良好的隐蔽性和转换效果显著。
May, 2020
本文提出了第一种实时、通用且强健的对抗攻击方案,能通过在任意用户的语音输入上添加通用扰动,在线进行万能识别。同时,利用房间脉冲响应 (RIR) 对声音失真进行建模,提高攻击的鲁棒性。在公共数据集上的实验表明,这种攻击的成功率高达 90% 以上,并且攻击速度比当代非通用攻击快 100 倍。
Mar, 2020
通过优化梯度估计,PhantomSound 在几分钟内极大提高了黑盒攻击的查询效率,成功地攻击了语音助手并绕过了真实场景中的生物特征检测机制。
Sep, 2023