组织病理图像分类与脆弱性分析的联邦学习
提出了综合的医疗数据隐私风险分析和联邦学习(MedPFL)的减轻框架,分析了在联邦学习中保护私人医疗数据的隐私风险,并开发了有效的减轻策略。展示了使用联邦学习处理医学图像的实质性隐私风险,并指出在联邦学习中加入随机噪声的防御方法可能不总是有效保护医学图像免受隐私攻击,这给医疗数据的隐私保护带来了独特和迫切的挑战。
Nov, 2023
本文提供了关于联邦学习的概述,并重点关注医疗保健领域。通过中央协调器服务器共享全局深度学习模型,解决了隐私保护需求并探讨了联邦学习遇到的挑战和未来发展方向,其中使用多方计算、同态加密、差分隐私和随机梯度下降等多种隐私方法。
May, 2022
我们提出一种在物联网基础设施上,针对资源受限的移动健康和可穿戴技术的隐私保护边缘联邦学习框架,并通过在 Amazon 的 AWS 云平台上使用可穿戴技术监测癫痫的发作检测应用的实施评估了我们提议的框架。
May, 2024
在机器学习系统中,通过联邦学习作为一个安全的分布式机器学习方法,有效提升隐私安全;它利用区块链技术将机器学习模型转移到边缘服务器,通过这种机制保证了集中式和分散式系统的高效处理和数据存储需求,强调可伸缩性、隐私考虑和成本有效的通信。本文对最近的联邦学习应用进行了分析和比较,以评估其效率、准确性和隐私保护。然而,鉴于联邦学习复杂且不断演化的特点,明确需要进一步研究来解决知识间的差距并有效应对该领域面临的挑战。在本文中,我们将最近的文献分为以下几个类别:隐私保护、资源分配、案例研究分析和应用,此外,在每个章节的末尾,我们还对参考文献中提出的开放领域和未来方向进行了总结,为研究人员提供了领域演进的深入视角。
Oct, 2023
分布式学习中的联邦学习存在安全和隐私挑战,本研究针对各类机器学习模型,包括大型语言模型,提出了安全和隐私挑战的综合分类,重点关注聚合器和参与者的攻击,包括投毒攻击、后门攻击、成员推断攻击、生成对抗网络攻击和差分隐私攻击,同时提出了未来研究的新方向,旨在强化联邦学习系统以应对新兴安全风险并保护分布式学习环境中的敏感数据隐私。
Jul, 2023
通过分析医疗保健领域中已经存在的研究文献,本研究系统评估了联邦学习在提供隐私保护的同时维护医疗数据分析的完整性和可用性方面的效力,同时探讨了实际应用及其影响,突出未来的研究方向,旨在完善联邦学习的实现、增强数据安全协议,并将联邦学习拓展到更广泛的医疗应用领域,为未来的研究人员和实践者提供帮助。
May, 2024
本研究探讨联邦学习在医疗应用中的优势,分析其如何能够解决医疗数据隐私、安全及所有权等挑战,讨论如何通过本地步骤和沟通轮数的调整来进一步提高模型的性能,并提供了理论证明和实验评估的支持。
Apr, 2023
介绍谷歌于 2016 年首次提出的联邦学习,多个设备在中央服务器的监督下协作学习机器学习模型,可保证本地数据的隐私性和安全性,同时存在攻击风险,就此探讨了联邦学习的机会和挑战所在。
Jan, 2021