深度学习系统的安全弱点和漏洞
这篇论文揭示了流行的深度学习框架包括 Caffe,TensorFlow 和 Torch 存在的一系列漏洞,并讨论了这些漏洞对语音识别和图像分类等深度学习应用的影响,指出攻击者可以利用这些漏洞进行拒绝服务攻击,攻击崩溃或悬挂深度学习应用程序,或控制流劫持攻击,这将导致系统妥协或识别规避。该论文的目标是引起人们对软件实现的注意,并号召社区努力提高深度学习框架的安全性。
Nov, 2017
利用机器学习和深度神经网络,针对 C++ 程序开发了一种基于数据驱动的漏洞检测方法,研究结果表明结合源代码和神经网络特征,可以获得更可靠的漏洞检测结果,最高检测能力达到 0.87。
Feb, 2018
探讨了利用深度学习进行漏洞检测的现有技术面临的软件安全领域中高误报、高漏报且性能损失严重的问题,通过收集真实的训练数据和优化模型设计,实现了更好的自动化漏洞预测解决方案,取得了显著优于现有最好模型的预测性能。
Sep, 2020
近期发现的难以察觉的对抗性攻击可能对现有深度学习网络防御系统构成挑战,可能影响未来的网络攻击防御。本文重点研究了此领域,探讨了人工智能系统漏洞的后果,包括其可能出现的原因、随机化和对抗性示例之间的差异以及潜在的伦理问题。此外,在测试阶段适当地训练人工智能系统并使其为广泛使用做好准备也十分重要。
Aug, 2023
提出并发布了一个新的易受攻击源代码数据集,通过获取安全问题网站、提取 缺陷修复提交和相应项目的源代码进行数据处理。使用此数据集与先前数据集相结合,研究使用深度学习检测软件漏洞的挑战和未来研究方向。同时,研究发现大型语言模型是未来漏洞检测的方向,在检测性能上优于手动特征工程的图神经网络。
Apr, 2023
这项研究利用 C/C++ 开源代码,使用机器学习开发了一个基于函数级别的漏洞检测系统,并使用三个定位潜在攻击的静态分析器精心筛选标注了数百万个开源函数的数据集。研究表明深度学习源代码的特征表示法是一种自动化软件漏洞检测的有前途的方法。
Jul, 2018
本研究通过分析 89 个真实的机器学习攻击情景,研究机器学习中的威胁特性、识别通用基本应对策略,最终总结出其中的最有针对性的漏洞、攻击手段及其防御方式,以共同为机器学习安全保驾护航。
Jun, 2022
对机器学习中存在的各种安全威胁、威胁模型及相关挑战进行了简要概述,利用 LeNet 和 VGGNet 对 MNIST 和 GTSRB 等基准进行了安全威胁演示,提出并解决了部分误差影响并较小的攻击方式,并阐述了开发安全措施的相关技术。
Nov, 2018