差分隐私在线学习
该论文提出了一种针对分布式在线学习的隐私保护算法,在保证微分隐私的同时提高算法的学习准确率,并采用本地微分隐私算法框架来避免对数据收集方的信任,有效地对包括逻辑回归和基于 CNN 的图像分类等任务进行了测试。
Jun, 2023
我们研究了私密在线学习的问题,特别是专家预测(OPE)和在线凸优化(OCO)。我们提出了一种将惰性在线学习算法转化为私密算法的新方法。我们通过使用现有的惰性算法解决这些问题,将我们的转化应用于差分隐私 OPE 和 OCO。我们的最终算法在高隐私水平 ε≪1 下获得显著改进的后悔,对于 DP-OPE 为√(Tlogd) + (T^(1/3) log (d))/ε^(2/3),对于 DP-OCO 为√T + (T^(1/3)√d)/ε^(2/3)。我们通过对 DP-OPE 进行下界的研究,进一步补充了我们的结果,表明这些速率对于一类自然的低转换私密算法来说是最优的。
Jun, 2024
本文提出了一种新型的分布式在线学习算法,并采用差分隐私来保护学习者的隐私。通过使用在线学习的遗憾界,实现离线学习算法的快速收敛。在模拟中,证明了我们所提出的定理的正确性和算法的普适性。
May, 2015
本文提出了一种确保差分隐私的在线线性优化算法,其完全信息情况下的后果与 epsilon 无关,但在轮盘线性优化和非随机多臂匪徒的情况下,其遗憾上限是一个 $ ilde {O}$ 函数,同时使时间复杂度在 $\tilde {O}(\frac {1}{\epsilon}\sqrt {T}))$ 内。
Jan, 2017
研究目标为(ε, δ)- 差分隐私在线凸优化(OCO),通过引入强对数凹密度的抽样,提升维度因子并消除平滑性要求,进而改进了(ε)非常小的情况下 Agarwal 等人的结果,达到了该领域已知的最佳速率。
Dec, 2023
本文研究了基于分布式数据源的在线学习,提出了一种新的算法,可以保障网络中的隐私。该算法使用通信网络中的本地数据源更新本地参数,并且在网络中的一个小子集周期性地交换信息。我们导出了强凸函数的遗憾界,我们的算法有内在的隐私保护性质,且证明了网络中的隐私保护的必要和充分条件。
Jun, 2010
本文提出了一种分布式优化算法,通过引入差分隐私的方法来保护隐私信息,该算法通过加性噪声扰动公共信号,噪声的大小由投向用户指定约束条件的投影运算的灵敏度决定,将它视为随机梯度下降的一种实现,并通过对其次优性的边界估计来评估算法的性能,同时对电动汽车充电场景进行了数值模拟,评估了算法在实践中的使用效果,包括步长的选择、迭代次数以及隐私级别和子优延迟之间的权衡问题。
Nov, 2014
本研究提出一种基于差分隐私约束条件的在线探索强化学习算法,该算法达到了非隐私算法的信息理论下限,同时利用隐私发布噪音技术获得了隐私保护,解决了个性化医疗等隐私数据应用中数据使用安全的问题。
Dec, 2022
个性化差分隐私机器学习:使用个人数据点隐私级别训练 Ridge 回归模型的方法 (PDP-OP),在提供严格隐私保证和模型准确性的前提下,改善差分隐私中的隐私 - 准确性平衡。
Jan, 2024
本研究提出了一种基于梯度追踪的本地差分隐私分布式在线学习算法,通过确保严格的本地差分隐私,该算法在均方意义下收敛于精确的最优解,即使在迭代次数趋向无穷的情况下,累积隐私预算也是有限的。在实验中,该算法在多个基准机器学习应用中表现良好,并且在训练和测试准确性方面均优于现有的对应方法。
Oct, 2023