Phoenix:联邦式生成扩散模型
我们提出了一种联合扩散模型方案,可以在不暴露本地数据的情况下独立和协作地训练扩散模型。通过对底层 UNet 骨干网的新颖利用,我们实现了在训练过程中参数交换数量的显著降低,最多可达 74%,而同时仍能保持与中心化设置相当的图像质量,依据 FID 分数评估。
Jun, 2024
综述了 2019 年至 2024 年间的涉及联邦学习和生成模型的研究,系统比较了近 100 篇论文的方法和隐私问题,强调了最新的进展和未解决的挑战,为未来的研究提供了洞见。
May, 2024
本文提出了基于差分隐私均值共享的联邦学习算法 FedDPMS,该算法使用变分自编码器在保护隐私的前提下,增强本地数据集合成多样化的数据以避免数据异构性对于联邦学习的负面影响,实验表明 FedDPMS 算法比其他面向异构数据的联邦学习算法性能更佳,特别适用于深度图像分类任务。
Jun, 2022
本研究探讨了扩散模型在一次性联邦学习中的有效性,证明其在应对数据异构性和提高联邦学习性能方面的适用性,并与其他一次性联邦学习方法在差分隐私下的效用进行了比较。此外,为了在差分隐私设置下提高生成样本的质量,我们提出了一种实用的傅里叶幅度过滤(FMF)方法,增强了全局模型训练的生成数据的有效性。
May, 2024
利用 Federated Data Model (FDM) 方法开发了一种能够在不同地点之间训练准确且注重隐私的人工智能模型的方法,通过扩散模型学习一处地点的数据特征,并生成可用于其他地点的合成数据,成功地应用于医学图像分割任务。
Mar, 2024
本文提出一种新颖的无数据的联邦类增量学习框架,使用扩散模型生成稳定、高质量的图像,通过设计新的平衡采样器、信息论的基于熵的采样过滤技术以及与基于特征的正则化项整合的知识蒸馏,来减轻灾难性遗忘和改善基于联邦学习的智能模型的准确性。
May, 2024
本研究探讨联邦学习在医疗应用中的优势,分析其如何能够解决医疗数据隐私、安全及所有权等挑战,讨论如何通过本地步骤和沟通轮数的调整来进一步提高模型的性能,并提供了理论证明和实验评估的支持。
Apr, 2023
本文提出了一个基于生成式预训练模型辅助联邦学习框架的 GPT-FL 方法,在提高通信效率和客户抽样效率的同时,优化梯度多样性来增强模型收敛速度和提高模型测试准确性。
Jun, 2023