本文对机器学习与隐私问题进行了综述,涵盖了三种交互方式:(i) 私有机器学习,(ii) 机器学习辅助隐私保护,以及 (iii) 基于机器学习的隐私攻击和相应的保护方案,总结了各个领域内的研究进展和关键挑战,并提出了未来的研究方向。
Nov, 2020
本论文提出新的算法技术,包括隐私成本的细化分析,并在差分隐私框架下进行。 实验结果表明:我们可以在较小的隐私成本下训练具有非凸目标的深度神经网络,而且在软件复杂性、训练效率和模型质量上具有可管理的成本。
Jul, 2016
深度学习模型在多个领域取得了巨大的成功,但研究发现这些模型存在各种攻击,会危及模型的安全性和数据隐私,特别是模型抽取攻击、模型反转攻击和对抗攻击。这篇论文研究了这些攻击以及它们对深度学习模型的影响。
Nov, 2023
本研究介绍了一种在分布式情况下使用差分隐私训练临床数据神经网络的方法,并在 eICU 协作研究数据库和 The Cancer Genome Atlas 上进行了验证。
Dec, 2018
对机器学习中隐私攻击的分类及防御方法进行了研究和探讨。
Jul, 2020
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注 PPML 在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
本文通过实验证明,在深度神经网络中,模型结构对于模型的隐私性具有影响,并发现激活层、干细胞层和偏置参数的微观设计是 CNN 相对于 Transformers 更健壮的主要原因,而注意力模块的存在也是 Transformers 更容易受到隐私攻击的另一个原因。
Oct, 2022
差分隐私已成为机器学习中广受欢迎的数据保护方法,尤其是因为它允许提供严格的数学隐私保证。本文综述了差分隐私集中深度学习的现状,对最近的进展和开放问题进行了深入分析,并讨论了该领域未来的可能发展。通过系统的文献综述,涵盖了以下主题:针对隐私模型的审计和评估方法,提高隐私与效用之间的权衡,防范各种威胁和攻击,差分隐私生成模型以及新兴应用领域。
Sep, 2023
云生态系统中的隐私和安全论文指出,解决机器学习模型引入的风险存在差距,通过调查 AIaaS 领域,提出了一种分类法来全面检查 ML 模型的创作者和消费者所面临的风险及其已知防御措施,为提供方和消费方提供了基础解决方案。
Jan, 2024
本论文通过重新考虑分发策略,并利用增强学习设计来支持异构设备和多个 DNN / 数据集,实现协同深度推理的安全性,以平衡联合推理的延迟和数据隐私级别之间的权衡。
Aug, 2022