拜占庭鲁棒联邦线性赌博机
本文提出了一种强大的聚合方法,用于联邦学习,可以有效地应对恶意拜占庭攻击,每个用户可以通过多个步骤来更新模型参数,然后将其直接推送到聚合中心,聚合中心利用几何中位数将用户的模型参数进行组合,并通过严格的证明表明,只要恶意攻击者的比例低于一半,我们提出的方法可以达到零最优间隔,并呈线性收敛性。数值结果验证了我们提出方法的有效性。
Aug, 2023
我们研究了面对自适应对手时的分布式在线和掷骰机凸优化问题。我们旨在在 $M$ 个并行工作的机器上通过 $T$ 轮和 $R$ 次间歇通信来最小化平均遗憾。在假设底层成本函数是凸函数并且可以自适应生成的情况下,我们的研究结果表明,在机器能够访问所查询点的一阶梯度信息时,合作是没有益处的。这与对于随机函数的情况形成了对比,其中每台机器从固定分布中抽样成本函数。此外,我们深入研究了带有掷骰机(零阶)反馈的联邦在线优化更具挑战性的情况,在该情况下,机器只能访问所查询点的成本函数值。这里的关键发现是确定合作有益且甚至可能导致机器数量的线性加速的高维度情况。我们通过开发新的分布式单点和双点反馈算法,进一步说明了我们的研究结果在联邦对抗线性掷骰机中的应用。我们的工作是对限制反馈的联邦在线优化的系统理解的首次尝试,并在间歇通信情况下获得了一阶和零阶反馈的严格遗憾界。因此,我们的研究填补了联邦在线优化中随机和自适应环境之间的差距。
Nov, 2023
该论文介绍了一个用于在线组合优化和有限带反馈的联邦学习框架,该框架将任何具有复杂度为 O (psi/epsilon^beta)(其中省略了对数计算,psi 是一个函数,beta 是常数)的离线单代理(alpha-epsilon)逼近算法转化为具有 m 个通信代理和 alpha 遗憾度的在线多代理算法,并保证了与时间跨度 T 的次线性增长,且随着通信代理数量的增加而线性加速。此外,该算法还具有高效的通信特性,只需要亚线性数量的通信轮次,通过将该框架成功应用于在线随机子模块最大化,并实现了第一个单代理和多代理设置的结果,以及恢复了专门的单代理理论保证。我们还通过对随机数据摘要问题的实证验证来展示所提出的框架的有效性,即使在单代理场景中也是如此。
May, 2024
研究具有多个代理通过通信网络合作的新的非随机联邦多臂老虎机问题,其中危害的损失是由特指所有代理的每个时间步长和每个代理的每个手臂的损失的笨拙对手分配的。对于任何联邦老虎机算法,根据不同的设置提供遗憾下限,当代理有完整信息反馈或老虎机反馈时。在老虎机反馈设置下,提出一种接近最优的联邦老虎机算法 FEDEXP3,证明 FEDEXP3 可以保证不交换代理之间选择的手臂编号或损失序列的情况下得到次线性遗憾。还提供我们算法的数值评估以验证我们的理论结果,并证明其在合成和现实世界数据集上的有效性。
Jan, 2023
本文研究了存在拜占庭攻击的联邦多臂老虎机问题,并借鉴了鲁棒统计学中的方法提出了一种名为 Fed-MoM-UCB 的估算器,通过实验证明了其在面对拜占庭攻击时的有效性。
May, 2022
本文就基于上下文线性赌博机的联邦学习问题提出了一种称为 FedUCB 的多代理私有算法,该算法在中央化和去中心化(点对点)联邦学习方案中均可使用,在保证通信隐私的同时,在后遗憾度和隐私保证方面表现出极强的实用性。
Oct, 2020
在强凸损失函数方面,通过改进维度依赖性,我们提出了拜占庭安全的联邦学习协议,并取得了接近最优的统计速率,并且通过桶聚合和隐私保护措施的自然结合,增强了安全性。
May, 2022
本文旨在探索线性上下文强化学习在联邦学习环境下的应用,提出了一种基于异步模型更新和通信的通用框架,并对分布式学习下的遗憾和通信成本进行了理论分析,并进行了广泛的实证评估,证明了该解决方案的有效性。
Oct, 2021
我们提出了一种名为 Fed-GO-UCB 的新算法,用于具有通用非线性目标函数的联邦赌博优化问题,通过严格证明,Fed-GO-UCB 能够以次线性速率实现累积遗憾和通信成本。
Nov, 2023
本文研究在对抗性场景下,如何以拜占庭容错的方式进行分布式统计机器学习,以解决联邦学习中受到威胁的问题。我们提出了一种基于梯度汇聚的方法,在容忍拜占庭故障的同时,实现了参数的准确估计,算法的时间复杂度为 $O ((Nd/m) logN)$,通信成本为 $O (md logN)$。此外,我们还将该方法应用于线性回归问题。
May, 2017