局部差分隐私(情境型)Bandits学习
本文使用代理损失函数导出了新的后悔界限和新的算法,其中借助于坡道损失函数,我们导出了新的边界界限。同时也根据标准顺序复杂度度量了回归函数的基准类,使用铰链损失函数,导出了一种有效的算法,并且其中包含了一个以$d$维度回归器引出的基准方针。在实现假设下,本研究的结果也可以得出经典的后悔边界。
Jun, 2018
本篇论文研究了解决上下文线性赌博机问题的隐私学习算法,其中采用联合差分隐私的定义将经典的线性-UCB算法转换成联合差分隐私算法,并在其中使用高斯噪声或Wishart噪声,使结果算法的遗憾得到了限制。此外,还给出了任何MAB问题私有算法必须产生的额外遗憾的第一个下限。
Sep, 2018
该研究讨论了非参数上下文赌博问题,研究了函数的Hölder类和光滑度参数β之间的插值关系,提出了一种新算法,能够调整到各种光滑度设置,并通过确立匹配的上下限证明其遗憾是速率最优的,从而弥合了现有文献关于参数和非可区分性情境赌徒问题,以及仅使用全局或本地信息的赌徒算法之间的差距,同时也揭示了上下文赌徒问题中的复杂性和遗憾之间关键性的相互影响。
Sep, 2019
本文研究了具有差分隐私和强局部差分隐私的组合半臂赌博问题,证明了在常见平滑性假设下,该算法可以消除额外的依赖于数据维度的副作用,并且获得了最优的损失界限,表明在这些普遍的设置下,组合半臂赌博的方法没有额外的价格。
Jun, 2020
本文介绍了使用本地差分隐私的情境赌博算法,为了在保持用户数据隐私不受侵犯的情况下个性化学习,利用了一种基于随机梯度下降法的估计器和更新机制来确保使用LDP,并且在广义线性情境中利用了该方法。我们还开发了一个基于最小二乘法的评估器和更新机制,最后通过模拟和实际数据集的实验来证明了算法的性能在强隐私保护的条件下具有相当好的表现。
Jun, 2021
本文研究联邦线性情境强化学习在用户级差分隐私下的模型,介绍了用户级中心差分隐私和本地差分隐私,并研究了学习遗憾与相应差分隐私保证之间的基本权衡。对于中心差分隐私,提出了一种联邦算法Robin,并在满足用户级差分隐私的情况下证明了其近乎最优,对于本地差分隐私,获得了一些下界,表明在不同条件下,满足用户级(ε,δ)-LDP的学习必须遭受至少min{1/ε,M}或min{1/根号下ε,根号下M}的遗憾膨胀因子。
Jun, 2023
我们考虑高维度的随机情景线性赌博问题,在参数向量是$s_{0}$-稀疏的情况下,决策者受到差分隐私在中心模型和本地模型下的约束。我们提出了PrivateLASSO,一种差分隐私的LASSO赌博算法,它基于两个子例程:(i)基于稀疏硬阈值的隐私机制和(ii)用于识别参数$ heta$支撑集的时序阈值规则。我们证明了最小化差分隐私的下界,并在标准假设下为PrivateLASSO在中心模型下建立了隐私和效用保证。
Feb, 2024