通过利用边信道攻击以提取 logits,我们提出了一种架构无关的黑盒攻击方法用于生成具有欺骗性的对抗样本,以证明边信道攻击在攻击神经网络时的有效性。
Nov, 2023
本文首次深入探讨利用缓存侧信道攻击的 DNN 指纹攻击的安全性分析,介绍了攻击工具 DeepRecon 以及元模型的构建,同时提出框架级别的防御技术来混淆攻击者的观察。
Oct, 2018
该研究利用非侵入式的侧信道信息,针对多层感知器神经网络,研究了如何逆向工程并获取该网络的构架及权重, 并展示了恢复输入所需的可行性和应对该攻击的几种缓解方法。
基于对对抗性图像分类模式的观察,我们提出一种用于盗取模型的方法,结合时间侧信道和对抗性图像分类,以指纹识别多个著名的卷积神经网络和 Vision Transformer 架构,该方法可在减少查询次数的同时保持高准确率。
Feb, 2024
本论文提出了一种基于功率侧信道的攻击方法,在不了解神经网络的详细参数的情况下,能够从收集到的功率跟踪中恢复输入图像。在 MNIST 数据集上,我们的攻击能够实现最高 89% 的识别准确率。
Mar, 2018
该研究旨在提高基于决策的攻击,并展示了利用算法执行时间作为侧信道来实施决策攻击的能力,特别是在与目标检测相关的非最大抑制算法中发现的时间侧信道漏洞。研究提出了一种新的威胁模型,利用定时泄漏进行数据集推理,并探索了实施恒定时间推理传递作为一种缓解策略的潜力和限制。
Sep, 2023
近年来,深度学习在嵌入式加密应用的侧信道漏洞利用方面越来越受欢迎,因为它可以减少有效密钥恢复所需的攻击轨迹数量。本研究基于 ANSSI 侧信道攻击数据库(ASCAD),采用基于 JAX 的深度学习框架,重现了以前的一些结果并试图改进性能,并研究了各种基于 Transformer 的模型的有效性。
本文提出了一种名为 Cache Telepathy 的具有快速、准确性的机制,通过 cache 侧信道窃取深度神经网络(DNN)的架构,使用 Prime+Probe 和 Flush+Reload 攻击 VGG 和 ResNet DNNs 运行 OpenBLAS 和 Intel MKL 库的结果表明,我们的攻击能够有效地帮助获得目标 DNN 架构。
Aug, 2018
神经网络存在漏洞可在双向上执行不同任务的训练,导致对抗者能够将恶意模型隐藏在表面上合法的模型中,此外神经网络还能被教导有系统地记忆和检索特定样本,这些发现展示了一种对抗者能够在受保护的学习环境中以合法模型的假象下窃取数据集的新方法,我们通过重点研究数据窃取攻击表明现代架构可以偷偷窃取数以万计的高保真样本,足以危害数据隐私甚至训练新模型,为了减轻这一威胁,我们提出了一种检测感染模型的新方法。
本文介绍了一种新型攻击方法 —— 生成模型反演攻击,它可以显著地提高逆转深度神经网络的准确率,攻击者使用部分公共信息学习分布先验,引导逆转过程,并且通过实验证明了差分隐私在该攻击下的防御效果有限。
Nov, 2019