联邦学习与迁移学习:对敌手和防御机制的综述
本文对联邦学习的隐私保护问题进行了广泛的研究和探讨,提出了对应的防御方法并对防御方法的选择提出了指导建议,研究得出了关于攻击和防御行为的进一步结论以及面临的挑战和经验教训。
Jan, 2022
我们研究了一个新颖而实用的情境中的弹性和安全问题:一组恶意客户端通过伪装身份和表现为良性客户端,在训练期间对模型造成影响,并且在训练之后揭示他们的对手位置以进行可转移的对抗攻击,这些数据通常是 FL 系统训练时使用的数据子集。我们的目标是全面了解 FL 系统在这种实际情境中面临的挑战,包括各种配置。我们注意到这种攻击是可能的,但是与其在干净图像上的准确度相当时,联邦模型比其集中式对应物更为稳健。通过我们的研究,我们假设这种稳健性来自两个因素:分布式数据上的分散训练和平均操作。我们从实证实验和理论分析的角度提供证据。我们的工作对于理解联邦学习系统的稳健性具有意义,并对联邦学习应用提出了实际问题。
Oct, 2023
本文系统总结了目前联邦学习系统中存在的各种攻击和针对性防御,包括学习和预测阶段中对不同角色的攻击,并分析了各种隐私和安全层面的防御机制,旨在为建立更加安全、稳定的联邦学习系统提供参考。
Nov, 2022
本文提供了一种系统的概述和分类,涵盖了联邦学习的现有安全挑战以及针对数据污染,推断攻击和模型毒化攻击的防御技术。此外,还探讨了处理非独立同分布数据、高维度问题和异构架构的联邦学习的当前训练挑战,并提出了解决相关挑战的几种解决方案。最后,我们讨论了联邦学习训练中剩余的挑战,并提出了针对开放问题的研究方向建议。
Apr, 2022
本文介绍了一种新的技术和框架,称为联邦迁移学习(FTL),它可以在数据联邦下提高统计模型的性能。该联邦允许共享知识而不会危及用户隐私,并可在网络中传输补充知识,从而使目标域方能够利用源域方的丰富标签构建更加灵活和强大的模型。同时,为了在联邦下保护 FTL 的性能,还提出了一种安全的跨验证方法。该框架需要对现有模型结构进行最小的修改,并提供与非隐私保护方法同样水平的准确性。该框架非常灵活,可有效适应各种安全多方机器学习任务。
Dec, 2018
本文提出,为了解决 AI 面临的数据孤岛和数据隐私安全的问题,可以通过构建安全联邦学习架构,包括水平联邦学习、垂直联邦学习和联邦迁移学习方案,并通过使用联邦机制构建数据网络,以允许在不损害用户隐私的情况下共享知识。
Feb, 2019