联邦机器学习中的隐私和信任重新定义
本文介绍了一种分布式基础设施,用于实现分布式代理之间的点对点信任,从而协同执行保护隐私的机器学习工作流程。使用 Hyperledger Aries,Decentralised Identifiers (DIDs) 和 Verifiable Credentials (VCs) 建立了一个分布式信任体系,促进与心理健康护理相关的联邦学习工作流程。
Jun, 2020
本文介绍了一种联邦学习框架,可以从不同站点本地持有的分布式健康数据中学习全局模型,提供了两个级别的隐私保护,第一级别的隐私保护不在模型训练过程中移动或共享原始数据,第二级别的隐私保护使用差分隐私机制防止对模型的潜在隐私攻击,并在两个医疗应用程序上对我们的方法进行了全面评估,使用 100 万患者的真实世界电子健康数据,证明了联邦学习框架在提供更高级别的隐私保护和维护全局模型效用方面的可行性和有效性。
Oct, 2019
分布式学习框架 - 联邦学习增强了个人数据隐私保护,允许协作研究且无需共享敏感数据;通过多源信息合作,提供更多种类的洞察力。本文是对隐私保护机器学习的系统性文献综述,通过 PRISMA 指南对近年来得出的有关联邦学习的监督 / 非监督机器学习算法、集成方法、元启发式方法、区块链技术和强化学习,以及联邦学习应用进行了广泛回顾。旨在为研究人员和实践者提供从机器学习角度对联邦学习的全面概述,并提供了一些开放问题和未来研究方向的讨论。
Nov, 2023
我们提出一种在物联网基础设施上,针对资源受限的移动健康和可穿戴技术的隐私保护边缘联邦学习框架,并通过在 Amazon 的 AWS 云平台上使用可穿戴技术监测癫痫的发作检测应用的实施评估了我们提议的框架。
May, 2024
本文研究采用差分隐私技术以保护病人数据在联邦学习架构中的隐私泄露问题。在对 BraTS 数据集上的脑瘤分割进行实验后,我们发现隐私保护代价与模型性能之间存在权衡。
Oct, 2019
本文提供了一种系统的概述和分类,涵盖了联邦学习的现有安全挑战以及针对数据污染,推断攻击和模型毒化攻击的防御技术。此外,还探讨了处理非独立同分布数据、高维度问题和异构架构的联邦学习的当前训练挑战,并提出了解决相关挑战的几种解决方案。最后,我们讨论了联邦学习训练中剩余的挑战,并提出了针对开放问题的研究方向建议。
Apr, 2022
本文提出,为了解决 AI 面临的数据孤岛和数据隐私安全的问题,可以通过构建安全联邦学习架构,包括水平联邦学习、垂直联邦学习和联邦迁移学习方案,并通过使用联邦机制构建数据网络,以允许在不损害用户隐私的情况下共享知识。
Feb, 2019
分布式学习中的公平性在医疗保健领域中的实现和支持带来了一些挑战和考虑因素,本文旨在概述公平联邦学习的典型生命周期,并提供一个更新的分类方法以反映当前实现中的公平性状态。
Aug, 2023