本研究旨在研究联邦学习(FL)系统中的机器非重学习问题,提出了一种快速数据淘汰方法以保护数据隐私,并在四项真实数据集上进行了测试和分析。
Mar, 2022
在保护用户隐私的前提下,提出了一种联邦学习模型中去除任意客户数据的方法,即通过执反向梯度下降法使局部经验损失最大化,以解决被遗忘权(DP)的问题,并在 MNIST 数据集上进行了实验验证。
Jul, 2022
在医学中,有限的训练数据和严重的类别不平衡问题使得开发强健的深度学习模型面临显著挑战。本文通过引入个性化分类器对联邦学习进行了改进,以便在联邦学习过程中指导和去除偏差,提高模型的广义和特异性能力,同时在联邦长尾皮肤病分类和颅内出血分类方面优于现有领先方法。
May, 2023
本研究提出了Forgettable Federated Linear Learning框架,旨在保障Federated learning中客户端隐私,实现训练模型时对客户端数据的保密性,并通过引入数据移除策略来解决Federated learning中的计算挑战,实验结果表明,与基线策略相比,该方法在平衡模型准确性和信息删除方面具有优势。
Jun, 2023
本文综述了联邦学习在医学图像分析中的最新发展,介绍了联邦学习在处理隐私保护和协作学习问题方面的背景和动机,分类总结了现有的联邦学习方法,并提供了目前联邦学习研究的基准医学图像数据集和软件平台的回顾,同时进行了实验以评估联邦学习方法在医学图像分析中的应用。
基于增量学习、主动遗忘和弹性权重约束的新型联邦遗忘框架,有效解决联邦学习中的遗忘问题。
Jul, 2023
随着可信任的联邦学习(FL)的发展,实施被遗忘权引起了联邦遗忘(FU)领域,与机器遗忘相比,FU的主要挑战在于FL的分散化和保护隐私的特性,其中客户端共同训练全局模型而不共享原始数据,使得有选择地遗忘特定信息变得更加复杂。针对此问题,我们对FU进行了全面的调查,提供了现有的算法、目标、评价指标,并确定了一些FU的挑战。通过回顾和比较一些研究,我们将它们总结为各种方案、潜在应用和未来方向的分类。
Oct, 2023
本研究调查了联邦学习中取消学习的背景概念、经验证据和实际指南,提出了一种新的分类法对最先进的取消学习算法进行详细分析,并确定了该领域最有前景的研究方向和尚未解决的技术挑战。
Jan, 2024
我们的研究第一次全面系统地研究了多领域上下文中现有技术在联邦领域消除中的特征和挑战,揭示了忽视领域特定数据对模型行为的细微影响所造成的性能下降和准确性损失。为此,我们提出了专为联邦领域消除量身定制的新型评估方法,旨在在不损害模型整体完整性和性能的情况下准确评估和验证领域特定数据的消除,为联邦学习中的领域中心化消除策略提供了切实可行的先例。
Jun, 2024
本研究解决了标准深度学习分类方法在临床应用中的局限性,特别是由于数据异构性导致的优化收敛问题。论文提出了一种名为FedImpres的新方法,通过恢复代表全球信息的合成数据来缓解局部训练中的灾难性遗忘现象。实验结果表明,该方法在BloodMNIST和Retina数据集上达到了业界领先的性能,分类准确率提高了多达20%。
Sep, 2024