我们提出了一种新颖的异步联邦学习框架,该框架整合了基于合同理论的激励机制,通过自适应地调整客户端的本地模型训练轮数来最大化任务发布者的效用,考虑到时间延迟和测试准确性等因素。通过在 MNIST 数据集上进行的实验,模拟结果表明,我们的框架比没有任何攻击的 FedAvg 和 FedProx 分别提高了 3.12%和 5.84%的测试准确性。在受到攻击时,该框架比理想的本地 SGD 准确性提高了 1.35%。此外,针对相同的目标准确性,我们的框架所需的计算时间明显少于 FedAvg 和 FedProx。
Oct, 2023
本研究采用合同理论设计一种有效的激励机制,以促进具有高质量(即高准确性)数据的移动设备参加联合学习,并在提高学习准确性的同时,加强数据隐私保护和安全性。
May, 2019
本文提出了一种基于博弈论的激励机制,通过随机客户端参与度数,实现以不偏差的方式获得高性能模型,并分析了客户端的参与度数和异质性数据如何影响模型性能的收敛界。
Apr, 2023
本文介绍了一种激励机制,鼓励客户共享他们所拥有的尽可能多的数据,以提高联合学习的性能,该机制与以前的不同之处在于使用模型性能而不是数据作为激励,我们在一定的条件下理论上证明了客户将使用他们尽可能多的数据参与联合学习
May, 2022
本文研究了在联邦学习中使用众包数据标注的问题,考虑了客户端的策略性行为,设计了能够激励客户端诚实行为的机制,并在实验中评估了该机制的性能。
Jan, 2023
本论文提出了一个新的分析框架来激励参与者中心的联邦学习,分别提出了两种贡献无关的 FL(COFL)和贡献感知 FL(CAFL)游戏模型,讨论了 Nash 平衡的独特性和存在性并设计了有效的算法来达到平衡解决方案。 大量的性能评估表明,COFL 中存在着 free-riding 现象,而采用具有优化的最小阈值的 CAFL 模型可以大大缓解此现象。
Jul, 2022
图形联邦学习中的激励机制和公平性评估函数,以及模式原型的应用,提高模型准确性和公平性。
Dec, 2023
通过多用户协作计算框架,将联邦学习中的模型所有者和数据所有者分为两种角色,通过允许数据所有者将额外的本地计算任务转移到模型所有者来有效地促使其参与,从而实现高准确度且最小化联邦学习任务所需时间的目标
采用博弈论设计一种有效的激励机制来解决联邦学习中用户参与之间的难题,同时解决由于学习过程中隐私泄露而导致的效果下降问题。
Sep, 2020
通过使用人工智能生成的内容为联邦学习模型性能提升提供新的数据合成技术,并通过数据质量评估方法和激励机制解决客户参与联邦学习的经济激励问题。
Jun, 2024