具有本地差分隐私的多臂赌博机
本文研究了带本地差分隐私保证的多臂老虎机问题的遗憾最小化问题。作者提出了三种机制,分别为线性,二次和指数机制,并推导了每种机制下 Thompson Sampling 算法的随机遗憾边界。最后,本文通过模拟证明了不同机制在不同隐私预算下的收敛性。
Jul, 2023
本研究提出的隐私保护算法在解决随机多臂赌博机问题时,相比之前的成果取得了较大的进展。算法可以保证最优遗憾率 O (Ɛ−1+logT), 通过实验证实了理论界和实践界之间的一致性。
Nov, 2015
本研究使用对数批量查询和不同的隐私模型提出不同关于武断攻击的差分隐私和鲁棒性阿姆淘汰算法,实现同时在随机线性医生问题中提供差分隐私和对手强度的功能,并提供相应的遗憾界限。
Apr, 2023
本文介绍了使用本地差分隐私的情境赌博算法,为了在保持用户数据隐私不受侵犯的情况下个性化学习,利用了一种基于随机梯度下降法的估计器和更新机制来确保使用 LDP,并且在广义线性情境中利用了该方法。我们还开发了一个基于最小二乘法的评估器和更新机制,最后通过模拟和实际数据集的实验来证明了算法的性能在强隐私保护的条件下具有相当好的表现。
Jun, 2021
本文研究了一种分散式多臂搏击器的问题,提出了一种达到最优秩序并确保公平性的分散式政策,并证明了其总遗憾增长速率的下限,这个问题在认知无线电网络,多通道通信系统,多智能体系统,网络搜索和广告以及社交网络等领域有潜在的应用。
Oct, 2009
本文研究联邦线性情境强化学习在用户级差分隐私下的模型,介绍了用户级中心差分隐私和本地差分隐私,并研究了学习遗憾与相应差分隐私保证之间的基本权衡。对于中心差分隐私,提出了一种联邦算法 Robin,并在满足用户级差分隐私的情况下证明了其近乎最优,对于本地差分隐私,获得了一些下界,表明在不同条件下,满足用户级 (ε,δ)-LDP 的学习必须遭受至少 min {1/ε,M} 或 min {1 / 根号下 ε,根号下 M} 的遗憾膨胀因子。
Jun, 2023
本文提出了一种在随机模型下割臀膜机制下的多臂老虎机问题的差分隐私算法,其分别对应具体分布相关和分布无关两种后悔下界,并给出最优算法上界和良好的本地模型表现。
Jun, 2021
研究有限时段表格马尔可夫决策过程(MDPs)中的遗憾最小化问题,在差分隐私(DP)约束条件下,提出两种 DP 变体的通用框架 -- 集中式 DP(JDP)和本地 DP(LDP)-- 以设计带有隐私机制的强化学习算法,其中 JDP 的隐私代价仅为下限加项,而 LDP 的代价则是乘法项。同时获得次线性的遗憾保证,并提出了该分析的统一方法。
Dec, 2021
本文研究局部差分隐私策略下的赌博机学习。我们提出了一种简单的黑盒归约框架,可以解决大量的无上下文赌博机学习问题,同时保证局部差分隐私。这个框架在真实应用中更具吸引力。此外,我们将其扩展到广义线性赌博机,并推测它是近乎最优的。
Jun, 2020