基于协议理论的联邦学习任务训练模型可以有效地提高任务的生成准确性和概括准确性,其中采用基于协议的聚合机制作为激励机制。
Aug, 2021
本文提出了一种基于博弈论的激励机制,通过随机客户端参与度数,实现以不偏差的方式获得高性能模型,并分析了客户端的参与度数和异质性数据如何影响模型性能的收敛界。
Apr, 2023
本文提出了一种新的众包框架来解决分散式学习中的通信效率问题,并通过制定参与客户端的准入控制方案来保证其本地准确性水平。通过基于激励和 Stackelberg 游戏等模型的分析与模拟实验,证明了该方案的有效性。
Nov, 2019
本文介绍了一种激励机制,鼓励客户共享他们所拥有的尽可能多的数据,以提高联合学习的性能,该机制与以前的不同之处在于使用模型性能而不是数据作为激励,我们在一定的条件下理论上证明了客户将使用他们尽可能多的数据参与联合学习
May, 2022
通过多用户协作计算框架,将联邦学习中的模型所有者和数据所有者分为两种角色,通过允许数据所有者将额外的本地计算任务转移到模型所有者来有效地促使其参与,从而实现高准确度且最小化联邦学习任务所需时间的目标
Dec, 2023
采用博弈论设计一种有效的激励机制来解决联邦学习中用户参与之间的难题,同时解决由于学习过程中隐私泄露而导致的效果下降问题。
Sep, 2020
图形联邦学习中的激励机制和公平性评估函数,以及模式原型的应用,提高模型准确性和公平性。
通过在线知识蒸馏使用对比损失的新方法,保证了参与者在不共享其输入数据的情况下学习相似类别的相似特征,并将平均最后隐藏层激活的特征表示发布到中央服务器,然后客户端使用对比目标在其个人模型中蒸馏其知识,从而比独立学习和其他联邦知识蒸馏 (FD) 方案提高了模型的效用,本框架在多个数据集上使用不同的模型架构进行了性能基准测试。
Nov, 2022
联邦学习是一种机器学习范式,其中多个客户端通过利用私有数据来优化单一全局模型。本研究提出了一种基于高级特征进行一次聚类的客户端抽样策略,以在每一轮中实现分层的客户端抽样,以减少噪音并显著提高全局模型的收敛率,并显著减少了达到目标准确性所需的通信轮次。
本文提出了一种针对边缘端云架构的基于联邦学习的计算模型,称为 FOCUS,通过一种信用加权指导的协同调节机制,有效识别具有嘈杂标签的客户端,并减少其对模型性能的影响,从而显着优于现有的 FL 方法。
Jan, 2020