Cerberus: 探索基于联邦学习的安全事件预测
分布式学习中的联邦学习存在安全和隐私挑战,本研究针对各类机器学习模型,包括大型语言模型,提出了安全和隐私挑战的综合分类,重点关注聚合器和参与者的攻击,包括投毒攻击、后门攻击、成员推断攻击、生成对抗网络攻击和差分隐私攻击,同时提出了未来研究的新方向,旨在强化联邦学习系统以应对新兴安全风险并保护分布式学习环境中的敏感数据隐私。
Jul, 2023
本文提出了一种基于 “分段 - 联邦学习”(Segmented-FL) 的网络入侵检测系统 (NIDS),该方法采用定期的本地模型评估和加权聚合本地模型参数的方法来显著提高性能,该方案对于需要协同处理多个不同网络环境数据、并保护个人数据隐私的组织具有重要参考意义。
Jul, 2021
本文提出了一种基于区块链的安全联邦学习框架,通过构建智能合约,自动执行防御策略,识别恶意攻击参与者,同时采用本地差分私有化技术,有效地防止中毒和成员推断攻击。
May, 2020
本文系统总结了目前联邦学习系统中存在的各种攻击和针对性防御,包括学习和预测阶段中对不同角色的攻击,并分析了各种隐私和安全层面的防御机制,旨在为建立更加安全、稳定的联邦学习系统提供参考。
Nov, 2022
在机器学习系统中,通过联邦学习作为一个安全的分布式机器学习方法,有效提升隐私安全;它利用区块链技术将机器学习模型转移到边缘服务器,通过这种机制保证了集中式和分散式系统的高效处理和数据存储需求,强调可伸缩性、隐私考虑和成本有效的通信。本文对最近的联邦学习应用进行了分析和比较,以评估其效率、准确性和隐私保护。然而,鉴于联邦学习复杂且不断演化的特点,明确需要进一步研究来解决知识间的差距并有效应对该领域面临的挑战。在本文中,我们将最近的文献分为以下几个类别:隐私保护、资源分配、案例研究分析和应用,此外,在每个章节的末尾,我们还对参考文献中提出的开放领域和未来方向进行了总结,为研究人员提供了领域演进的深入视角。
Oct, 2023
本文提供了一种简洁的介绍联邦学习的概念,并使用一个唯一的分类法来涵盖针对联邦学习的威胁模型和两个主要的攻击方法:1) 污染攻击和 2) 推理攻击,探讨了向更强大的隐私保护方向发展的有前途的未来研究方向.
Mar, 2020
本文研究应用联邦学习和自然语言处理于跨机构精神科领域进行暴力危险评估,并比较四个模型的性能,结果显示联邦学习模型表现最佳,可能为基于临床笔记的联邦学习应用开启了新的可能性。
May, 2022
本文详细阐述了联邦学习的体系结构、应用问题、算法设计原则和安全问题,提出了一种更加通用的算法设计框架、攻击场景和防御方法,致力于将联邦学习与真实世界应用相集成并实现高性能、隐私保护和安全性。
Feb, 2023