通过实验和研究,我们发现联邦扩散模型在隐私敏感领域提供视觉服务方面具有巨大潜力。
Nov, 2023
本文利用迁移学习和知识蒸馏等方法,提出了一个通用的框架,使得联邦学习在每个参与者拥有自己的数据和独特的模型的情况下也能够实现。在 MNIST/FEMNIST 和 CIFAR10/CIFAR100 数据集上的试验中,与独立建模相比,该框架使得个体模型的测试准确度平均提高了 20%,并且只有少数几个百分点的下降。
Oct, 2019
本文提出了一种新的个性化联邦学习框架来解决异构医疗数据在多个医院之间协作训练神经网络时的降级问题,并设计了差异性稀疏正则化器和降低计算成本的方法来提高计算效率,最后通过实验证明该方法可以获取最佳模型性能和高达 60%的通信效率改进。
Jun, 2023
本研究介绍了第一个使用联邦学习实现多机构协作、不共享患者数据的深度学习模型,结果表明它在多模态脑扫描的分割方面的性能与共享数据的训练模型相似,在与另外两种合作学习方法的比较中也取得了最佳结果。
Oct, 2018
本文研究采用差分隐私技术以保护病人数据在联邦学习架构中的隐私泄露问题。在对 BraTS 数据集上的脑瘤分割进行实验后,我们发现隐私保护代价与模型性能之间存在权衡。
本文提出了一种称为 Federated Forest 的隐私保护机器学习模型,该模型是传统随机森林方法的无损学习模型,可以在不泄露原始数据的情况下处理分布在不同公司或政府机构中的数据。 通过该模型,开发了一种安全的跨地区机器学习系统,并提出了一种新型的预测算法来降低通信开销。 实验表明,Federated Forest 的性能已被验证,可以用于实际任务。
May, 2019
本文研究了在真实的合作环境下使用联邦学习(FL)构建医学成像分类模型。通过对世界各地的七个临床机构的数据进行联邦学习,成功地训练了乳腺密度分类模型,其性能比在机构的本地数据训练的模型平均提高了 6.3%,在其他机构的测试数据上表现出了 45.8%的相对改进。
Sep, 2020
本文介绍了一种联邦学习框架,可以从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护,第一级别的隐私保护不在模型训练过程中移动或共享原始数据,第二级别的隐私保护使用差分隐私机制防止对模型的潜在隐私攻击,并在两个医疗应用程序上对我们的方法进行了全面评估,使用 100 万患者的真实世界电子健康数据,证明了联邦学习框架在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
本论文提出了一种新的框架 —— 灵活的联邦学习(FFL),可用于协作训练医疗图像分析的大型、异质标记数据集,研究表明,使用 FFL 训练的模型优于仅使用匹配标记训练的模型。
Nov, 2022
本研究提出一种联邦学习方法来解决多中心 fMRI 分类任务中的隐私问题,采用分散式的迭代优化算法并在本地模型权重上实现随机化机制,通过两种域自适应方法来解决不同中心 fMRI 分布的系统性差异,实现了对多组医疗数据隐私保护的高质量分析。
Jan, 2020