本文提供了关于联邦学习的概述,并重点关注医疗保健领域。通过中央协调器服务器共享全局深度学习模型,解决了隐私保护需求并探讨了联邦学习遇到的挑战和未来发展方向,其中使用多方计算、同态加密、差分隐私和随机梯度下降等多种隐私方法。
May, 2022
通过应用裁剪技巧与高斯机制来解决不包含验证数据的公平差分私有联邦学习框架的可能出现的偏见更新问题,同时审查了隐私和公平性在联邦学习中的相关工作,并强调了 MITIGATE 偏见和确保隐私的最新进展和方法。
May, 2023
我们提出了一种名为 mFairFL 的方法,通过使用差分乘数构建优化目标,同时实现组公平和客户公平,以解决在隐私不受损失的情况下训练公平的 FL 模型的问题。理论分析证明 mFairFL 有助于模型的公平性,并且基于三个基准数据集的实验评估显示 mFairFL 相对于七个最先进的基准模型具有显著优势。
Dec, 2023
用于解决联邦学习中数据隐私问题导致的设备端数据无法被中心服务器使用的问题,本文提出了一种基于估计方案的设备选择算法,以最小化类别不平衡来提高联邦学习全局模型的收敛性能。
Nov, 2020
我们提出了一个群体公平的联邦学习框架,旨在在保护隐私和没有资源利用开销的情况下,减少群体偏见。我们通过利用平均条件概率来计算由异构训练数据得出的跨领域群体重要性权重,使用修改的乘法权重更新方法来优化表现最差的群体的性能。此外,我们提出了正则化技术来最小化最差和最好表现群体之间的差异,同时通过阈值机制确保在减少偏见和群体表现下降之间取得平衡。我们对人类情绪识别和图像分类基准进行了评估,以评估我们的框架在实际异构环境中的公平决策能力。
Sep, 2023
该研究提出了一种新的算法,为参与联邦学习训练的客户分配自适应聚合权重,识别出最有利于特定学习目标的数据分布,实验证明通过该算法引导的合作在传统的联邦学习方法上取得了更好的表现,强调了客户选择的重要性。
Feb, 2024
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
Jul, 2023
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023
分布式学习中的联邦学习存在安全和隐私挑战,本研究针对各类机器学习模型,包括大型语言模型,提出了安全和隐私挑战的综合分类,重点关注聚合器和参与者的攻击,包括投毒攻击、后门攻击、成员推断攻击、生成对抗网络攻击和差分隐私攻击,同时提出了未来研究的新方向,旨在强化联邦学习系统以应对新兴安全风险并保护分布式学习环境中的敏感数据隐私。
本研究旨在探讨有关机器学习模型中特定人群或群体受到偏待的问题以及解决方法,其中我们特别研究了本地模型与全局模型之间公平性的关系,并提出了一种基于惩罚性经验损失最小化的全局公平训练算法,实验证明我们的方法在保持高准确率的同时,相比本地公平训练方法能够更有效地提升公平性。