具有差分隐私的模型解释
本论文提出新的算法技术,包括隐私成本的细化分析,并在差分隐私框架下进行。 实验结果表明:我们可以在较小的隐私成本下训练具有非凸目标的深度神经网络,而且在软件复杂性、训练效率和模型质量上具有可管理的成本。
Jul, 2016
通过研究选择性分类器在差分隐私约束下的效果,探讨深度学习模型的可靠性及隐私泄漏问题,发现最近的一种基于现成的深度学习模型生成检查点的方法在差分隐私下更为合适,使用差分隐私不仅会降低模型的效能,而且在隐私预算降低时需要付出相当大的覆盖成本。
May, 2023
在实际数据中进行差分隐私学习存在挑战:隐私保证难以解释,对私有数据进行的超参数调整会降低隐私预算,通常需要进行特殊的隐私攻击来测试模型的隐私性。本文提出了三种工具来使差分隐私机器学习更加实用:(1)可在训练前以集中方式进行的简单的健全性检查,(2)自适应裁剪边界来减少可调隐私参数的有效数量,(3)大批量训练可以提高模型性能。
Dec, 2018
本研究证明在可解释的机器学习模型 Explainable Boosting Machines (EBMs) 中添加差分隐私可以保证隐私同时获得最先进的准确性,同时提供准确的全局和局部可解释性。
Jun, 2021
本文介绍了一种模块化方法,可以最小化对训练算法的更改,提供各种隐私机制的配置策略,并隔离和简化计算最终隐私保证的关键逻辑,以解决在隐私敏感数据集上训练机器学习模型所面临的实际挑战。
Dec, 2018
本文讨论了机器学习和差分隐私之间的相互作用,即隐私保护机器学习算法和基于学习的数据发布机制,探讨了可以通过差分隐私进行学习的内容以及差分隐私算法的损失函数上限。同时提出了一些开放性问题,包括如何整合公共数据,如何处理私人数据集中的缺失数据,以及当观察样本数量任意增大时,是否可以实现差分隐私机器学习算法而无需牺牲相关算法的效用成本。
Dec, 2014