CSI 神经网络:使用侧信道恢复你的人工神经网络信息
本文提出利用时间侧信道攻击来推断神经网络模型深度的黑盒神经网络提取攻击,使用知识蒸馏和强化学习,有效减少了搜索空间,可以构造出与目标模型测试精度接近的替代模型,且该方法可扩展,并与神经网络结构类型无关。
Dec, 2018
本论文提出了一种基于功率侧信道的攻击方法,在不了解神经网络的详细参数的情况下,能够从收集到的功率跟踪中恢复输入图像。在 MNIST 数据集上,我们的攻击能够实现最高 89% 的识别准确率。
Mar, 2018
通过简单的模式识别分析,我们提出了一种针对传统 MLP 和 CNN 模型的提取方法,该方法可以运行在高端 32 位微控制器(Cortex-M7)上,并且相对于参数提取而言,攻击的复杂性相对较低,强调了对适应这种平台的强大内存和延迟要求的可行性保护的迫切需求。
Nov, 2023
本文首次深入探讨利用缓存侧信道攻击的 DNN 指纹攻击的安全性分析,介绍了攻击工具 DeepRecon 以及元模型的构建,同时提出框架级别的防御技术来混淆攻击者的观察。
Oct, 2018
通过利用边信道攻击以提取 logits,我们提出了一种架构无关的黑盒攻击方法用于生成具有欺骗性的对抗样本,以证明边信道攻击在攻击神经网络时的有效性。
Nov, 2023
近年来,深度学习在嵌入式加密应用的侧信道漏洞利用方面越来越受欢迎,因为它可以减少有效密钥恢复所需的攻击轨迹数量。本研究基于 ANSSI 侧信道攻击数据库(ASCAD),采用基于 JAX 的深度学习框架,重现了以前的一些结果并试图改进性能,并研究了各种基于 Transformer 的模型的有效性。
Sep, 2023
通过利用卷积神经网络模型结构的空间和时间数据复用,以及架构提示信息,提出一种利用存储器侧通道信息来恢复数据流加速器中卷积神经网络模型结构的攻击方法。实验结果表明,该侧通道攻击可以恢复流行的卷积神经网络模型 Lenet、Alexnet 和 VGGnet16 的结构。
Nov, 2023
通过引入隐私侧信道攻击,本研究揭示了当前保护机器学习隐私的方法假设模型存在于真空中,然而事实上,机器学习模型是包含用于训练数据过滤、输出监测等组件的更大系统的一部分。文中提出了四类隐私侧信道攻击,涵盖了整个机器学习生命周期,可以用于增强成员推断攻击或者进行提取用户测试查询等新颖威胁。通过实例展示,文中指出在应用差分隐私训练之前对训练数据进行去重造成了一种侧信道攻击,完全破坏了任何可证明的隐私保护保证。此外,研究还发现,阻止语言模型再生成训练数据的系统可以被利用来精确重构出包含在训练集中的私钥,即使模型本身并没有记忆这些私钥。总之,本研究的结果表明需要进行全面的端到端的机器学习隐私分析。
Sep, 2023
本文提出了一种名为 Cache Telepathy 的具有快速、准确性的机制,通过 cache 侧信道窃取深度神经网络(DNN)的架构,使用 Prime+Probe 和 Flush+Reload 攻击 VGG 和 ResNet DNNs 运行 OpenBLAS 和 Intel MKL 库的结果表明,我们的攻击能够有效地帮助获得目标 DNN 架构。
Aug, 2018