Oct, 2017

差分隐私经验风险最小化与输入扰动

TL;DR提出了一种新的差分隐私ERM框架:输入扰动。在这种框架中,每个数据贡献者独立地对其数据进行随机化并将扰动数据提交给数据库。我们证明了该框架在一定条件下,确保了使用随机化数据学习到的模型最终满足差分隐私,同时确保本地差分隐私得到了保证。该方法也展示了有关模型的风险界限。