本文研究基于指数机制的线性回归算法,通过选择 Tukey 深度高的模型,克服了现有差分隐私解决方案中数据边界和超参数设定的困难,所得结果在丰富数据设置下表现优异。
Aug, 2022
通过使用差分隐私,我们在小型数据集的情况下训练针对经济研究的简单线性回归的算法,在不牺牲数据隐私的情况下获得较高的性能。
Jul, 2020
本文提出了一种基于 Kendall 秩相关的差分隐私特征选择方法,扩展了不同隐私线性回归算法的适用性,并证明了在特征正态分布时的效用保证。经过对 25 个数据集的实验,发现在回归之前添加此私有特征选择步骤显著地提高了 “即插即用” 隐私线性回归算法的适用性,同时几乎不增加终端用户的隐私、计算或决策成本。
Jun, 2023
该文探讨了在深度学习模型中如何保护训练数据的隐私,比较了不同优化方法对模型性能、训练效果和隐私攻击的影响,并确定了 dropout 和 l2 正则化作为较优秀的隐私保护方法。
Sep, 2022
本文主要研究如何将差分隐私的保护机制融入多元线性回归建模中,并提出了一种基于惩罚最小二乘估计和随机化的算法来实现此目标,该算法在最优化时更加敏感于参数的选择,但保证了与非差分隐私的程序同样的一致性。
Jul, 2016
本研究在高维度背景下研究差分隐私的均值估计问题,通过将高维度鲁棒统计的结果应用到差分隐私中,提出了一种计算可行的算法,能够在高维度下完成差分隐私的均值估计,并且在人工合成数据集上表现出了优异的性能。
Jun, 2020
本文研究了在在线凸规划框架下使用差分隐私作为正式隐私度量的隐私保护算法,提供了将在线算法转换为具有良好隐私保护性能的算法框架,特别是针对在线线性回归问题,提出一种具有 $log^{1.5} T$ 的担保损失差别隐私算法。
Sep, 2011
通过研究选择性分类器在差分隐私约束下的效果,探讨深度学习模型的可靠性及隐私泄漏问题,发现最近的一种基于现成的深度学习模型生成检查点的方法在差分隐私下更为合适,使用差分隐私不仅会降低模型的效能,而且在隐私预算降低时需要付出相当大的覆盖成本。
May, 2023
通过差分隐私和稳定学习理论的显式连接,提出了一种更好的隐私 / 实用性权衡方法,以便为所有凸型 Lipschitz 有界学习任务获得更好的权衡,并将其应用在医疗数据上,以获得更准确的模型。但改进后的隐私机制使得不同隐私机制更容易受到模型反演攻击的影响。
Dec, 2015
本文提出一种基于差分隐私的数据隐私定义的分类法,将已有的定义分为七类,依据对原始定义的哪些方面进行了修改。这些类别类似于维度:来自同一类别的变体不能组合,但来自不同类别的变体可以组合形成新的定义,并列举哪些定义满足一些期望的性质,如合成、后处理和凸性,为此提供一些新的证明或收集现有证明。
Jun, 2019