差分隐私联合线性赌博机算法
本文探讨了结合差分隐私和多智能体赌博学习的联邦私有赌博机制。我们研究了如何将基于差分隐私的置信上界方法应用于多智能体环境,特别是应用于主 - 从和完全分散的联邦学习环境中,并提供了有关所提出方法的隐私和后悔性能的理论分析,并探讨了这两者之间的权衡。
May, 2020
提出了一种面向异构客户的联邦赌博学习算法,通过对客户进行聚类实现了协同赌博学习,在联邦学习设置下,该算法在所有客户端都能实现非平凡的次线性遗憾和通信成本,只要服务器在任何时候只共享一个模型。
Feb, 2024
在联邦环境中,考虑具有公平性和隐私保证的上下文多臂赌博机问题。我们提出了一种新的通信协议,使得联邦学习更加有效,并提供了确保差分隐私的算法。我们通过广泛的模拟实验证明了我们提出算法的有效性。
Feb, 2024
本文提出了一种新型的联邦线性情境赌博机模型 Fed-PE,并采用协作算法来处理客户端的异质性,它基于新颖的多客户 G - 最优设计,并通过对不相交和共享参数情况下的对数通信成本,实现了几乎最优的遗憾。此外,本文还引入了一种新的概念 —— 共线依赖策略,并基于此导出了不相交参数情况下的严格极小化遗憾下界。实验结果表明,该算法在合成和真实数据集上均具有很好的鲁棒性。
Oct, 2021
本文研究联邦线性情境强化学习在用户级差分隐私下的模型,介绍了用户级中心差分隐私和本地差分隐私,并研究了学习遗憾与相应差分隐私保证之间的基本权衡。对于中心差分隐私,提出了一种联邦算法 Robin,并在满足用户级差分隐私的情况下证明了其近乎最优,对于本地差分隐私,获得了一些下界,表明在不同条件下,满足用户级 (ε,δ)-LDP 的学习必须遭受至少 min {1/ε,M} 或 min {1 / 根号下 ε,根号下 M} 的遗憾膨胀因子。
Jun, 2023
本文旨在探索线性上下文强化学习在联邦学习环境下的应用,提出了一种基于异步模型更新和通信的通用框架,并对分布式学习下的遗憾和通信成本进行了理论分析,并进行了广泛的实证评估,证明了该解决方案的有效性。
Oct, 2021
本篇论文研究了解决上下文线性赌博机问题的隐私学习算法,其中采用联合差分隐私的定义将经典的线性 - UCB 算法转换成联合差分隐私算法,并在其中使用高斯噪声或 Wishart 噪声,使结果算法的遗憾得到了限制。此外,还给出了任何 MAB 问题私有算法必须产生的额外遗憾的第一个下限。
Sep, 2018
我们提出了一种名为 Fed-GO-UCB 的新算法,用于具有通用非线性目标函数的联邦赌博优化问题,通过严格证明,Fed-GO-UCB 能够以次线性速率实现累积遗憾和通信成本。
Nov, 2023
研究联邦线性赌臂模型,其中 M 个客户端与中央服务器通信,解决具有有限对抗行动集的线性上下文赌臂问题。提出了 FedSupLinUCB 算法,并证明其实现了总遗憾 O (dT) 的性能边界,并分析了其通信成本。将 FedSupLinUCB 进一步扩展到方差自适应和对抗性破坏的情景,通过实验证明了该算法的有效性。
Nov, 2023