DBFed: 基于领域独立的去偏差联邦学习框架
本文提出了 FairFed 算法,该算法针对联邦学习中的群体公平性问题,在保证本地数据隐私的前提下,通过支持灵活的本地去偏差方法,增强了群体公平性,实验结果表明 FairFed 算法比现有的公平 ML 和联邦学习算法更加公平,特别是在数据分布不均的情况下。
Oct, 2021
本文研究了联邦学习在分布式设备网络上的数据隐私和效率问题。我们提出了一种有原则的方法来解决联邦域自适应问题,旨在通过扩展对抗适应技术来对齐不同节点学习到的表征与目标节点数据分布。同时,我们设计了一个动态注意机制和利用特性解缠来增强知识转移。在几个图像和文本分类任务上进行了实证实验,并在无监督联邦域自适应设置下展示了有前途的结果。
Nov, 2019
本文提供了一种系统的概述和分类,涵盖了联邦学习的现有安全挑战以及针对数据污染,推断攻击和模型毒化攻击的防御技术。此外,还探讨了处理非独立同分布数据、高维度问题和异构架构的联邦学习的当前训练挑战,并提出了解决相关挑战的几种解决方案。最后,我们讨论了联邦学习训练中剩余的挑战,并提出了针对开放问题的研究方向建议。
Apr, 2022
本文提出了一种称为 Federated Forest 的隐私保护机器学习模型,该模型是传统随机森林方法的无损学习模型,可以在不泄露原始数据的情况下处理分布在不同公司或政府机构中的数据。 通过该模型,开发了一种安全的跨地区机器学习系统,并提出了一种新型的预测算法来降低通信开销。 实验表明,Federated Forest 的性能已被验证,可以用于实际任务。
May, 2019
提出一种新的联邦学习方法,利用预训练模型作为本地模型的骨架,使用完全连接的层组成头部来解决客户端数据分布和计算资源不同的问题,在客户端之间共享类别的嵌入向量,采用加噪声的隐私保护混合方法来保护隐私,最后在自建车辆数据集上进行全面评估。
Jan, 2023
IBM Federated Learning 提供了联邦学习的基础设施和协调,可以设计和运行联邦学习作业,从而将范围从集中式扩展到联邦机器学习,从而在最初阶段将学习曲线降至最低,同时也提供了在不同计算环境下部署和设计自定义融合算法的灵活性。
Jul, 2020
本文介绍了一种新的 Federated Learning 算法 FedPDC,通过使用某些行业的共享数据集来优化本地模型的聚合方式和本地训练的损失函数。在许多基准实验中,FedPDC 可以在极度不平衡的数据分布情况下有效提高全局模型的准确性,同时确保客户数据的隐私保护,而且准确性提升不会带来额外的通信成本。
Feb, 2023
本文提出,为了解决 AI 面临的数据孤岛和数据隐私安全的问题,可以通过构建安全联邦学习架构,包括水平联邦学习、垂直联邦学习和联邦迁移学习方案,并通过使用联邦机制构建数据网络,以允许在不损害用户隐私的情况下共享知识。
Feb, 2019
分布式学习中的公平性在医疗保健领域中的实现和支持带来了一些挑战和考虑因素,本文旨在概述公平联邦学习的典型生命周期,并提供一个更新的分类方法以反映当前实现中的公平性状态。
Aug, 2023