Jan, 2024

基于联邦学习的基础模型集成在对抗威胁下的漏洞

TL;DR在现有的联邦学习(FL)框架存在数据不足和不平衡的情况下,基础模型(FMs)的出现为解决 FL 框架的局限性提供了潜在的解决方案,然而,由于 FMs 的固有安全问题,将 FMs 集成到 FL 中可能引入新的风险,为了解决这一问题,我们首次研究了整合 FM 的 FL(FM-FL)在对抗性威胁下的易损性,通过对图像和文本领域中着名模型和基准数据集的广泛实验,我们揭示了 FM-FL 对这种新威胁在各种 FL 配置下的高易感性,此外,我们发现现有的 FL 防御策略在防御这种新攻击方法方面提供了有限的保护,这项研究突出了在 FMs 时代的 FL 中增强安全措施的重要性。