数据混淆实现隐私保护机器学习
提出一种从原始数据集生成安全合成数据集的方法,基于预训练的深度神经网络(DNN)的批量归一化(BN)层统计信息和随机噪声进行优化来匹配原始数据的层次统计分布。该方法可以用于从头开始训练神经网络来产生合理的分类性能。
Oct, 2022
AI 部署和安全隐私问题密不可分,该研究通过探索不同分类器的漏洞、减少漏洞分类器的漏洞性、研究数据混淆技术的隐私性能权衡等三个主要方面,旨在解决数据足迹带来的漏洞,提供了在不同情景和环境中选择分类器的有用结果。
Jul, 2024
本文提出了一种基于对抗训练的框架 DeepObfuscator,使用专门设计的学习性混淆器来保护在移动设备上运行的深度学习模型的隐私,从而防止被攻击者利用从原始数据中提取的特征进行图像重建和私有属性推断。实验结果表明,使用该算法后,重建图像的质量明显下降,无法对人物进行重新识别,同时攻击者获得的隐私信息分类准确度也显著降低。
Sep, 2019
我们提出了一种有效的数据增强和机器遗忘的组合方法,可以减少数据偏差并提供对已知攻击的可证明防御。具体而言,我们利用基于扩散的数据增强来维护训练模型的公平性,并利用多分片遗忘来从机器学习模型中删除原始数据的识别信息,以保护隐私免受攻击。通过对不同数据集的实验评估表明,我们的方法在减少偏差和抵抗最新隐私攻击方面取得了显著改进。
Apr, 2024
使用 Instance-Obfuscated Inference (IOI) 方法解决自然语言理解任务中的决策隐私问题,并在各种基准任务上评估该方法的性能和隐私保护能力。
Feb, 2024
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注 PPML 在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
本文提出针对联邦学习中的图像分类任务的新型数据重构攻击框架,并证明了通常采用的梯度后处理程序可能会给联邦学习中的数据隐私保护带来虚假的安全感。作者设计了一种基于语义级数据重构的新方法,并与传统的基于图像相似度分数的方法进行了比较。结果表明,需要重新审视和重新设计现有联邦学习算法中客户端数据隐私保护机制的重要性。
Jun, 2022
通过提出名为 FedAdOb 的新型自适应混淆机制,在保护用户隐私的同时,避免了模型性能下降。经过理论证明,FedAdOb 在水平和垂直联邦学习环境中,能够确保数据的隐私性。通过在各种数据集和网络架构上广泛实验评估,证明了 FedAdOb 在隐私保护和模型性能之间取得了更优的平衡,超过了现有方法。
Jun, 2024