隐私保护异构联邦学习敏感医疗数据
本文介绍了一种联邦学习框架,可以从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护,第一级别的隐私保护不在模型训练过程中移动或共享原始数据,第二级别的隐私保护使用差分隐私机制防止对模型的潜在隐私攻击,并在两个医疗应用程序上对我们的方法进行了全面评估,使用 100 万患者的真实世界电子健康数据,证明了联邦学习框架在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
Oct, 2019
本论文提出了一个基于联合多视图学习的框架,用于多视图数据泄露预防,以解决医学数据分布困难、数据来源异构等问题。该框架兼容垂直联合多视图学习和水平联合多视图学习两种问题,并通过键盘数据的实验验证表明,该方法可以在保护隐私的同时充分利用多视图数据,同时 V-FedMV 和 H-FedMV 方法的表现都显著好于其单视图和成对对应方法。此框架是首个考虑在联合多视图设置中进行垂直和水平多样化以及顺序联合学习的研究。
May, 2021
本研究将差分隐私技术引入联邦学习框架以实现隐私保护的医学图像分类,证实了隐私保护与模型准确性之间的权衡存在,但我们证明了差分隐私的隐私预算的战略校准可以保持健壮的图像分类性能同时提供实质性的隐私保护。
Jun, 2023
提出一种新的联邦学习方法,利用预训练模型作为本地模型的骨架,使用完全连接的层组成头部来解决客户端数据分布和计算资源不同的问题,在客户端之间共享类别的嵌入向量,采用加噪声的隐私保护混合方法来保护隐私,最后在自建车辆数据集上进行全面评估。
Jan, 2023
本文提出了一种新的个性化联邦学习框架来解决异构医疗数据在多个医院之间协作训练神经网络时的降级问题,并设计了差异性稀疏正则化器和降低计算成本的方法来提高计算效率,最后通过实验证明该方法可以获取最佳模型性能和高达 60%的通信效率改进。
Jun, 2023
本文介绍了一种基于分布式身份技术的隐私保护的分散工作流,用于促进参与者之间可信的联邦学习,限制只有获得适当机构发放的可验证凭证的实体才能建立安全、经过认证的通信渠道,参与与心理健康有关的联邦学习流程。
Mar, 2021
本文提出了一种结合差分隐私和安全多方计算的联邦学习方法,在保证训练和最终模型的隐私性的同时,也能够保持较高的预测准确率,这个系统不仅能应用于多种机器学习模型的训练,而且在实验上验证了它的优越性。
Dec, 2018
本文研究基于联邦学习的隐私保护问题,提出了一种局部差分隐私机制,以解决当前机制存在的噪声数据接近原始值、估计平均数的方差过大和深度学习模型权重维数高导致隐私预算过大的问题。实验结果表明,该机制不仅具有优异的深度学习性能,而且能够提供强大的隐私保证。
Jul, 2020
该研究探讨了医学图像分析中联邦学习应用的安全方面。通过引入联邦环境中的分布式噪音,可以开发出具备对抗攻击鲁棒性并符合联邦隐私标准的模型。研究结果表明,引入分布式噪音可达到与传统对抗训练相当的安全水平,同时需要更少的样本进行重新训练。
Oct, 2023
这篇论文介绍了一种能够在分布式数据上训练的符合 HIPAA 规范的框架,并提出了一个用于阿尔茨海默病(AD)检测的多模态垂直联邦模型。这种垂直联邦模型能够在不违反 HIPAA 所施加的隐私限制的情况下,实现跨不同源医学数据的协同学习,并利用多种数据模态提高 AD 检测的稳健性和准确性。该研究旨在通过使用垂直联邦学习,提供一个框架使医疗机构能够利用分布式数据集中蕴含的集体智慧,而不会损害患者隐私。
Dec, 2023