自动从 AI 程序中学习反向 DNN
本文介绍了一种新的检测器,利用被保护深度神经网络的内部特征映射来检测和逆向工程后门,并识别其目标类别;该检测器可以在训练结束后操作,对各种内部化机制都具有高效性,且计算开销较低,可实现可扩展性。
Feb, 2024
本研究针对深度神经网络嵌入式特征表示的反演问题进行了研究,发现攻击者可以通过利用现成的深度神经网络模型和公共数据集,仅通过获取到的特征表示和攻击者的先验知识,模拟原始模型的行为,并构建成功鉴别的生物特征重建模型。
Apr, 2023
该论文介绍了 FedReverse,一种用于鲁棒版权保护且影响性能最小化的新型多方逆向水印嵌入方法。与现有方法不同,FedReverse 可以在模型训练后进行多方协作水印嵌入,确保个人版权声明,并可通过一致的用户同意完全去除水印。FedReverse 具有完美覆盖性,保证水印隐藏不会透露任何信息,并展示了对已知原始攻击(KOA)的抵抗力,使攻击者难以伪造水印或推断出密钥。该论文通过在 MNIST 数据集上训练的多层感知器(MLP)和卷积神经网络(CNN)进行了综合模拟评估,展示了 FedReverse 在不同嵌入参数和多客户场景下的鲁棒性、可逆性和对模型准确性的最小影响。
Dec, 2023
模型反演攻击致力于利用对预训练模型的访问权限揭示关于训练数据的私密信息,这些攻击使得对与私密训练数据密切一致的高保真数据的重建成为可能,从而引发了重大的隐私担忧。尽管该领域取得了快速的进展,但我们仍然缺乏对现有模型反演攻击和防御方法的全面概述。为了填补这一空白,本文对该领域进行了深入研究,并提出了综合调查报告。首先,本文简要回顾了机器学习场景下传统的模型反演方法。然后,对多种模态和学习任务下深度神经网络 (DNNs) 的近期攻击和防御方法进行了详细分析和比较。
Feb, 2024
我们提出了一种逆向识别方法 (INVERT),通过利用学习表示与人可理解的概念之间的区分能力,实现了将学习表示与其对应解释相连接的可扩展方法。此方法具有较低的计算复杂度并且不依赖于分割掩码的可用性,还提供了一个可解释的度量来评估表示与其相应解释之间的一致性并提供统计显著性的度量值,强调其实用性和可信度。我们展示了 INVERT 在各种场景中的适用性,包括识别受偶然相关性影响的表示以及对模型中决策层次结构的解释。
Nov, 2023
通过对神经形态结构的隐私保护能力进行全面的研究,我们开发了一种新颖的反转攻击策略,与传统的人工神经网络进行比较分析,实验证明提出的攻击策略的有效性,并对神经形态结构的内隐私保护假设提出了质疑。
Feb, 2024
本论文通过重新考虑分发策略,并利用增强学习设计来支持异构设备和多个 DNN / 数据集,实现协同深度推理的安全性,以平衡联合推理的延迟和数据隐私级别之间的权衡。
Aug, 2022
该论文介绍了一种通过二进制多样性技术和优化框架欺骗深度神经网络的攻击方式来打破基于机器学习的恶意软件检测系统,攻击成功率可达 100%,但该论文也探索了一些能够使攻击失败的防御手段。
Dec, 2019
Autoinverse 是一种高度自动化的逆变神经网络代理的方法,该方法能够在真实世界中部署,并且具有可行性和嵌入式正则化,并且在控制、制造和设计等领域得到了验证。
Aug, 2022