Aug, 2023

对公共数据进行私密分布式学习:基于样本压缩的视角

TL;DR研究了具有公共数据访问的私人分布学习问题,通过使用公共和私有样本来输出一个对分布 p 的估计,同时满足纯差分隐私的隐私约束。结果显示,Q类的公共-私有可学习性与Q类的样本压缩方案以及中间概念列表学习的存在有关,并且将这种连接利用起来恢复了以前关于Gaussians和新的结果,包括关于高斯$k$混合物的样本复杂性上界、关于自适应和分布转移抵抗学习的结果,以及在承担混合和分布乘积时广义公共-私有学习的闭合特性。最后,利用与列表学习的联系,结果显示对于Gaussians在R^d中,至少需要d个公共样本进行私人可学习性,这接近已知的d+1个公共样本的上界。