使用卷积神经网络的隐私 - 保护入侵检测
通过生成可被人类感知的图像,本研究在保护模型准确推断的同时,回避其他类似或不同目标的非授权黑盒模型,以实现实际的隐私保护。
Feb, 2024
本篇论文提出了一种用于合作、隐私保护分析的深度神经网络混合方法,使用边缘处理的思想,在保持效益的同时,有效减少了不必要、潜在敏感信息的级别。利用 Siamese 微调技术,可以确保用户设备只带有主任务所需的必要信息,并防止数据的二次推断。
Mar, 2017
本文旨在通过比较隐私保护性训练和非隐私训练,在胸部放射图诊断方面评估两种方法的准确性和公平性,研究发现,在隐私预算为 7.89 的情况下,DP 卷积神经网络与非私有卷积神经网络相比,在保持较高准确性的前提下,性能仅下降了 2.6% 左右,同时,隐私保护训练并不会加剧针对年龄、性别或共病的歧视。
Feb, 2023
模型反演攻击致力于利用对预训练模型的访问权限揭示关于训练数据的私密信息,这些攻击使得对与私密训练数据密切一致的高保真数据的重建成为可能,从而引发了重大的隐私担忧。尽管该领域取得了快速的进展,但我们仍然缺乏对现有模型反演攻击和防御方法的全面概述。为了填补这一空白,本文对该领域进行了深入研究,并提出了综合调查报告。首先,本文简要回顾了机器学习场景下传统的模型反演方法。然后,对多种模态和学习任务下深度神经网络 (DNNs) 的近期攻击和防御方法进行了详细分析和比较。
Feb, 2024
本文研究了隐私保护深度学习机制对于各种形式的隐私攻击的能力,提出了通过重构、追踪和成员攻击量化测量模型准确性和隐私损失之间的权衡,针对重构攻击提出了解决带有噪声的线性方程组的新颖方法,通过 SPN 技术解决了现有 PPDL 方法面临的隐私攻击对其构成的严重挑战,实验表明在数据隐私得到满意保护的情况下,模型的准确性平均提高了 5-20%。
Jun, 2020
本研究提出了一种新的隐私保护深度神经网络方案,既能够在训练和测试中将缺乏视觉信息的图像应用于 DNNs,也能够首次在加密域中考虑数据增强,该方法采用了一种新的基于像素的图像加密方法,同时提出了一种适应性网络以降低图像加密的影响,并对知名的 ResNet-18 网络应用该方法进行图像分类实验,结果表明,在加密域中进行数据增强的传统隐私保护机器学习方法包括现有最先进的方法都无法应用,而所提出的方法在分类精度方面表现卓越。
May, 2019
PATROL 是一种可行的解决方案,它通过引入两个关键组件:Lipschitz 正则化和对抗重构训练,以实现面向隐私的修剪,从而在保护隐私的同时提高推断模型的稳定性和准确性。
Jul, 2023