采用博弈论设计一种有效的激励机制来解决联邦学习中用户参与之间的难题,同时解决由于学习过程中隐私泄露而导致的效果下降问题。
Sep, 2020
本文介绍了一种激励机制,鼓励客户共享他们所拥有的尽可能多的数据,以提高联合学习的性能,该机制与以前的不同之处在于使用模型性能而不是数据作为激励,我们在一定的条件下理论上证明了客户将使用他们尽可能多的数据参与联合学习
May, 2022
本研究综述了联邦学习的激励机制问题,归纳了不同的机制分类,包括 Stackelberg game, auction 和 reinforcement learning,并讨论将来的研究方向。
Jun, 2021
本文提出了一种基于博弈论的激励机制,通过随机客户端参与度数,实现以不偏差的方式获得高性能模型,并分析了客户端的参与度数和异质性数据如何影响模型性能的收敛界。
Apr, 2023
图形联邦学习中的激励机制和公平性评估函数,以及模式原型的应用,提高模型准确性和公平性。
Dec, 2023
本论文提出了一个新的分析框架来激励参与者中心的联邦学习,分别提出了两种贡献无关的 FL(COFL)和贡献感知 FL(CAFL)游戏模型,讨论了 Nash 平衡的独特性和存在性并设计了有效的算法来达到平衡解决方案。 大量的性能评估表明,COFL 中存在着 free-riding 现象,而采用具有优化的最小阈值的 CAFL 模型可以大大缓解此现象。
Jul, 2022
本研究采用合同理论设计一种有效的激励机制,以促进具有高质量(即高准确性)数据的移动设备参加联合学习,并在提高学习准确性的同时,加强数据隐私保护和安全性。
May, 2019
本文介绍了在联邦学习中,面临着全局模型与本地模型的选择困境,运用博弈论的框架进行自然分析,提出了基于博弈论的联邦学习模型,探讨了均衡的选手分区问题,并分别分析了三种联邦模式的稳定分区。
Oct, 2020
设计了一个基于拍卖的激励机制,采用贡献和信誉度来评价工人,通过反向拍卖选择工人并根据表现付费,满足了诚实工人的个人理性、预算可行性、真实性和计算效率。
Jan, 2022
本研究提出了一种基于博弈论的框架来实现联邦学习中的合作,并考虑了代理的激励因素。通过稳定和无嫉妒均衡的概念,我们能够描述在代理有自己的学习目标和较低的样本负担时所能达到的合作状态。此外,通过比较没有考虑代理激励因素时的最优合作和考虑激励因素时的合作,我们证明了利用激励考虑的方法可以更有效地降低样本复杂度。
Mar, 2021