该论文提供了首次的智能代理人对拍卖联邦学习(IA-AFL)文献的综述,通过提出一个独特的多层次分类法,将 IA-AFL 的现有研究组织成为以利益相关者、采用的拍卖机制和代理人目标为基础的多角度视角,同时分析了现有方法的局限性、总结了常用的性能评估指标,并探讨了未来有前景的方向,为 IA-AFL 生态系统中的有效而高效的利益相关者导向的决策支持提供了基础。
Apr, 2024
许多现有的拍卖式联邦学习假设只有一个数据消费者和多个数据所有者参与,在实际的联邦学习市场中有多个数据消费者可以竞争吸引数据所有者加入任务中。本文提出了一种新型的拍卖式联邦学习数据消费者效用最大化竞标策略(Fed-Bidder),它通过提供适应不同的市场动态的中标功能来有效地和高效地使多个联邦学习数据消费者竞争数据所有者的加入。基于六个常用基准数据集的广泛实验表明,Fed-Bidder 相对于四种最先进的方法具有显著的优势。
May, 2023
联邦学习作为模型使用本地分布数据进行训练的有效方法,但是合作过程中共享数据的合理价值评估尚未充分解决。本文将联邦学习视为模型市场,客户既是买家也是卖家,通过模型交易获取经济回报,并通过购买他人的模型提高本地模型性能。我们提出了一种基于拍卖的解决方案,以基于性能提升确保适当的定价。还设计了激励机制来鼓励客户诚实地披露模型估值。此外,我们引入了一个强化学习框架以实现在动态发展的市场状态下的最大交易量。对四个数据集的实验结果表明,所提出的联邦学习市场能够实现高交易收入和公平的下游任务准确性。
Feb, 2024
设计了一个基于拍卖的激励机制,采用贡献和信誉度来评价工人,通过反向拍卖选择工人并根据表现付费,满足了诚实工人的个人理性、预算可行性、真实性和计算效率。
Jan, 2022
我们提出了基于拍卖的渐进参与者选择方案来解决联邦学习中遇到的评价偏见和冷启动问题,并通过实验表明,与现有方法相比,GPS-AFL 可以降低成本约 33.65%,平均提高总效用 2.91%。
Oct, 2023
基于拍卖的联邦学习(AFL)引起了广泛的研究兴趣,因其能通过经济手段激励数据所有者(DO)参与 FL。本文提出了一种面向 DO 的首个代理导向的联合定价、接受和分委托决策支持方法(PAS-AFL),通过考虑 DO 的当前声誉、待处理的 FL 任务、愿意训练 FL 模型以及其与其他 DO 之间的信任关系,提供了一种系统的方法来进行 AFL 出价接受、任务分委托和定价的联合决策,并基于 Lyapunov 优化来最大化其效用。在六个基准数据集上进行的大量实验证明了 PAS-AFL 相比六种替代策略的重要优势,平均来说,在效用和最终 FL 模型的测试准确率方面,它分别比最佳基准线提高了 28.77% 和 2.64%。
May, 2024
本研究综述了联邦学习的激励机制问题,归纳了不同的机制分类,包括 Stackelberg game, auction 和 reinforcement learning,并讨论将来的研究方向。
Jun, 2021
在水平联邦学习中,作者提出一种基于逆拍卖的在线激励机制,以实现更高质量的模型,并证明该机制可满足多项性质。
基于协议理论的联邦学习任务训练模型可以有效地提高任务的生成准确性和概括准确性,其中采用基于协议的聚合机制作为激励机制。
Aug, 2021
本文介绍了一种激励机制,鼓励客户共享他们所拥有的尽可能多的数据,以提高联合学习的性能,该机制与以前的不同之处在于使用模型性能而不是数据作为激励,我们在一定的条件下理论上证明了客户将使用他们尽可能多的数据参与联合学习
May, 2022