通过更快的 Frank-Wolfe 迭代来扩展差分隐私 LASSO 正则化逻辑回归
本文提出了一种稀疏逻辑回归的差分隐私方法,该方法利用非隐私 LASSO 逻辑回归模型确定使用的非零系数的数量来进行最终的模型选择,从而保持硬零,实验结果表明该方法在合成和真实数据集上表现良好。
Apr, 2023
在本文中,我们重新考虑了局部差分隐私(LDP)模型下稀疏线性回归的问题。我们提出了一种创新的非交互式局部差分隐私(NLDP)算法,该算法在数据服从亚高斯分布的情况下,为估计误差提供了上界,并且在服务器有额外公开但未标记数据的情况下,误差上界可以进一步提高。我们还研究了序贯交互式 LDP 模型,并发现了非私有情况、中心差分隐私模型和局部差分隐私模型在稀疏线性回归问题上的基本差异。
Oct, 2023
本文研究基于指数机制的线性回归算法,通过选择 Tukey 深度高的模型,克服了现有差分隐私解决方案中数据边界和超参数设定的困难,所得结果在丰富数据设置下表现优异。
Aug, 2022
通过差分隐私和稳定学习理论的显式连接,提出了一种更好的隐私 / 实用性权衡方法,以便为所有凸型 Lipschitz 有界学习任务获得更好的权衡,并将其应用在医疗数据上,以获得更准确的模型。但改进后的隐私机制使得不同隐私机制更容易受到模型反演攻击的影响。
Dec, 2015
该研究介绍了在 LLS 回归模型中引入差分隐私的差分隐私对数位置尺度回归(DP-LLS)模型,并通过功能机制将差分隐私融入 LLS 回归。研究证明了所提出的 DP-LLS 模型满足 epsilon - 差分隐私,并通过模拟和案例研究评估了该模型的性能,结果表明预测因素维度、训练样本数量和隐私预算是影响该模型性能的三个关键因素,同时也需充分的训练数据集以确保模型性能和满意的隐私保护水平。
Apr, 2024
我们考虑高维度的随机情景线性赌博问题,在参数向量是 $s_{0}$- 稀疏的情况下,决策者受到差分隐私在中心模型和本地模型下的约束。我们提出了 PrivateLASSO,一种差分隐私的 LASSO 赌博算法,它基于两个子例程:(i) 基于稀疏硬阈值的隐私机制和 (ii) 用于识别参数 $ heta$ 支撑集的时序阈值规则。我们证明了最小化差分隐私的下界,并在标准假设下为 PrivateLASSO 在中心模型下建立了隐私和效用保证。
Feb, 2024
本文提出了一种用于稀疏鲁棒回归问题的快速隐私保护学习解决方案,其中学习损失包括鲁棒最小绝对值损失和 $l_1$ 稀疏惩罚项。为了快速解决给定隐私预算下的非光滑损失,我们开发了一种名为 FRAPPE 的算法,通过将稀疏 LAD 问题重新表述为带惩罚的最小二乘估计问题,并采用三阶段噪声注入来保证 $(\epsilon,\delta)$- 差分隐私。实验证明,与现有隐私保护回归算法相比,我们的算法在隐私和统计准确性的权衡上取得了更好的性能。
Jan, 2024
提出了解决稀疏逻辑回归和使用非凸惩罚项解决稀疏逻辑回归的优化框架,以同时进行分类和特征选择。通过实证实验,证明了所提算法在具有现实数据集的二分类任务中能够有效地进行分类和特征选择,且计算成本较低。
Sep, 2023