语音助手应用程序中的安全问题和隐私问题:一项调查
本研究通过掌握音频信号处理算法背后的领域知识,成功实现了黑盒攻击,即针对声音处理系统注入隐藏命令,利用音频特征提取算法进行失真处理,从而攻击了12个机器学习模型,并在多个硬件配置中测试并证明其实效性。
Mar, 2019
本文考察了基于语音转换的匿名化方法,在三种攻击情景中比较了两种基于频率扭曲的转换方法和一种基于深度学习的方法,结果表明语音转换方案不能有效地防止具有广泛知识的攻击者,但可能为不太熟悉的攻击者提供一定的保护。
Nov, 2019
VoicePrivacy倡导发展语音技术的隐私保护工具,在声音匿名化任务和相关数据集和攻击模型等方面提出挑战,并报告了基于两个匿名化基线的客观评估结果。
May, 2020
本研究探讨语音和说话人识别系统的漏洞,并提出一种分类方法来评估此类漏洞。实验表明,对这些模型的攻击普遍失败,因此需要进一步的工作来提供充分的缓解措施。
Jul, 2020
VoicePrivacy Challenge 旨在通过聚集新社区来定义利益任务和评估方法,以及通过一系列挑战来基准测试解决方案,从而促进语音技术的隐私保护工具的发展。本文介绍了 VoicePrivacy 2020 挑战中选择的语音匿名化任务并描述了用于系统开发和评估的数据集,还介绍了攻击模型和相关的客观和主观评估指标。我们介绍了两个匿名化基线并报告了客观评估结果。
May, 2022
通过对无声攻击进行的分析,我们确认安全风险因素为7.6(满分为10),突显了NIST国家漏洞数据库(NVD)独立评分的重大安全漏洞。我们的基线网络模型展示了一个攻击者使用无声语音命令来未经授权地访问安全笔记本中的机密信息的情景。我们在该基线网络模型上模拟了许多攻击场景,揭示了通过物理访问和不添加新硬件或放大设备技能即可发现和掌握特权信息的潜力。我们使用微软的CyberBattleSim框架评估了六种强化学习算法,并发现Deep-Q学习与利用相结合的方法最佳,可以在较少的步骤中迅速掌控所有节点。我们的发现强调了在不断扩大的数字化环境中,尤其是由移动设备、语音激活和容易受到恶意行为者进行隐蔽攻击的非常规网络和新的网络安全措施的紧迫性。到2024年,这个新的攻击面可能包括比地球上的人更多的数字助手,但是却比常规的修补程序或固件修复提供更少的解决方案,因为无声攻击源自于麦克风设计和数字信号处理。
Jul, 2023
该论文讨论了语音用户界面的增长,以及由此带来的语音数据收集和存储问题。研究提出了匿名化语音和度量匿名程度的解决方案,并介绍了评估协议需要考虑的挑战,最后探讨了一种新的攻击方法以逆转匿名化。
Aug, 2023
我们研究了无声声波攻击对数字助手的新兴威胁,这是一个重要问题,因为预计到2024年,数字助手的普及度将超过全球人口总数。我们的研究扩展了这些攻击在亚马逊的Alexa、Android、iOS和Cortana等各种平台上的可行性,揭示了智能设备的重大漏洞。我们鉴别出了12种攻击向量,其中包括对智能家居设备和汽车系统的成功操纵、军事通信的潜在破坏以及关键基础设施安全面临的挑战。我们定量显示攻击成功率在60%左右,并且能够从100英尺以外远程激活设备。此外,这些攻击威胁到关键基础设施,强调了采用声学屏蔽、先进信号处理、机器学习和强大用户身份验证相结合的多方面防御策略以减轻这些风险的必要性。
Nov, 2023
本研究提出了一种新颖的跨任务保护用户隐私的口语理解模型,通过利用隐藏层分离技术,将用户信息仅分布在特定部分的隐藏层中并移除其他类型信息,从而实现隐私安全的隐藏层。为了在效率和隐私之间取得良好的平衡,引入了一种新的模型预训练机制,即联合对抗训练,以进一步增强用户隐私。实验证明,该方法能将语音识别和身份识别攻击的准确性降低至随机猜测水平,同时对口语理解性能影响较小。
Mar, 2024