个人隐私与群体隐私:学习攻击匿名化
本文讨论了机器学习和差分隐私之间的相互作用,即隐私保护机器学习算法和基于学习的数据发布机制,探讨了可以通过差分隐私进行学习的内容以及差分隐私算法的损失函数上限。同时提出了一些开放性问题,包括如何整合公共数据,如何处理私人数据集中的缺失数据,以及当观察样本数量任意增大时,是否可以实现差分隐私机器学习算法而无需牺牲相关算法的效用成本。
Dec, 2014
在实际数据中进行差分隐私学习存在挑战:隐私保证难以解释,对私有数据进行的超参数调整会降低隐私预算,通常需要进行特殊的隐私攻击来测试模型的隐私性。本文提出了三种工具来使差分隐私机器学习更加实用:(1)可在训练前以集中方式进行的简单的健全性检查,(2)自适应裁剪边界来减少可调隐私参数的有效数量,(3)大批量训练可以提高模型性能。
Dec, 2018
本论文利用差分隐私算法对分布式和流数据进行分析,通过学习全局数据模型并保障差分隐私,提出了三种分布式学习贝叶斯网络模型的新方法,并针对流数据中的用户密度估计问题,提供了用户级别的隐私保护算法和改进策略。
Jul, 2023
本文提出了一种基于 minimax filter 的机制来保护连续和高维属性的隐私,该方法能更好地抵御后推攻击,并通过实验验证了其在面部表情分类、语音情感分类和活动分类等多种实际任务中的优越性。
Oct, 2016
本论文提出新的算法技术,包括隐私成本的细化分析,并在差分隐私框架下进行。 实验结果表明:我们可以在较小的隐私成本下训练具有非凸目标的深度神经网络,而且在软件复杂性、训练效率和模型质量上具有可管理的成本。
Jul, 2016
通过使用基于值通用化层次结构的匿名化技术来模糊准标识符,广泛用于实现预设的隐私级别。本文研究了四种经典的机器学习方法,以分类为目的,分析了应用匿名化技术和为每个方法选择的参数的结果。使用广为人知的成年人数据集,在变化的 K 值、L - 多样性、T - 接近度和 delta 披露隐私方面部署这些模型的性能得到了研究。
May, 2023
本文探讨了在分散式数据环境下,采用局部差分隐私保护敏感数据的可行性,设计了最优局部差分隐私机制,实现了在大规模数据训练下保护隐私,同时保证模型准确性。
Dec, 2018
本文旨在研究数据污染攻击及其对机器学习的影响,提出差分隐私保护措施以防范攻击, 并设计了攻击算法,试图从目标和输出的角度影响学习器,实验结果表明,攻击者在污染足够多的训练数据时,攻击方法的有效性较高。
Mar, 2019
本文提出了一种采用差分隐私机制的数据推断攻击防御方法,通过调节一个参数,即隐私预算,处理成员推断和模型反演两种类型的攻击。该方法能够保持分类精度,并通过修改和标准化置信度得分矢量来保护成员隐私信息。实验结果表明,该方法对于成员推断和模型反演两种攻击是一种有效且及时的防御方法,不影响模型分类准确度。
Mar, 2022
通过研究选择性分类器在差分隐私约束下的效果,探讨深度学习模型的可靠性及隐私泄漏问题,发现最近的一种基于现成的深度学习模型生成检查点的方法在差分隐私下更为合适,使用差分隐私不仅会降低模型的效能,而且在隐私预算降低时需要付出相当大的覆盖成本。
May, 2023