- MM多跳联邦学习中的稀疏增量聚合
本文研究了联邦学习在多跳通信设置中的应用,通过使用增量聚合方法来改善通信效率,提出了几种相关稀疏化方法,并通过数值结果展示了这些算法在减少收敛性问题的情况下,相比常规路由和最先进的稀疏增量聚合方法,提高了 15 倍和 11 倍的通信效率。
- HF-Fed:基于分层的定制化联邦学习框架用于 X 射线成像
通过分解问题为本地数据适应和整体 X 射线成像,以及使用层次化超网络来提取特定领域的超参数条件共享的共同成像网络,本研究引入了基于层次框架的联合学习方法 (HF-Fed) 来优化定制化 X 射线成像,在不共享数据的情况下提供了一种增强 X - 物联网联邦学习中的隐私威胁与对策:系统综述
系统地分析了最近的文献,以识别物联网环境下的联邦学习中的隐私威胁,并评估可以用来减轻这些威胁的防御措施。着重关注物联网的背景下,包括推断攻击、毒化攻击和窃听在内等多种隐私威胁,并评估了差分隐私和安全多方计算等防御措施对保护隐私和维护联邦学习 - 轻量级异质资产产业联合联邦学习
提出了一种轻量级的工业化分组联邦学习(LICFL)算法,通过模型参数进行分组,以解决工业应用中数据异质性的问题,并采用自适应聚合算法(ALICFL)进一步提高全局模型性能和加速收敛。
- SFPrompt:资源有限设备上用于大型预训练模型的通信高效分散化微调
SFPrompt 是一种隐私保护的精调方法,通过将分割学习与联邦学习相结合,实现对资源受限设备的优化,以及改善联邦学习性能,同时减少本地计算资源耗用和通信成本。
- 多输出高斯过程中的联邦自动潜在变量选择
本文提出了一种分层模型,通过在每个潜在进程的系数上放置针对刺激和平板的先验,以自动选择所需的潜在进程,并设计了一种基于变分推断的联邦学习算法,使单位能够共同选择和推断共同的潜在进程而无需共享其数据。通过锂离子电池退化和气温数据的模拟和案例研 - 一种混合联邦核正则化最小二乘算法
在混合设置中,我们提出了一种高效的核正则化最小二乘算法的改进形式,引入了两种变体,并使用既定的数据集验证它们,最后讨论了防止可能攻击的安全措施。
- 可信联邦学习中隐私泄露的理论分析:基于线性代数和优化理论的视角
联合学习的隐私泄露问题是一个关键研究领域,本文从线性代数和优化理论的角度对联合学习中的隐私泄露进行了理论分析,为设计隐私保护的联合学习算法提供了理论基础。
- 异构联邦学习中的 ADMM: 个性化、鲁棒性和公平性
FLAME 是一种优化框架,利用交替方向乘子法 (ADMM) 训练个性化和全局模型,具有全局收敛性和两种收敛速度,相比最先进的方法在线性问题上更具鲁棒性和公平性,且在收敛性、准确性和抵御攻击等方面优于最先进的方法。
- 基于同一主体自监督学习的联邦学习用于人脸识别
通过联邦学习和自我监督学习,在个性化面部识别中,构建了一个新的模型适用于训练个性化的面部识别模型,并获得了比之前方法更好的性能。
- ICMLCOALA:一个实用且视觉为中心的联邦学习平台
COALA 是一个以视觉为中心的联邦学习平台,提供了一系列在实际联邦学习场景中的基准测试,并对任务、数据和模型进行了分类。它支持从简单的分类到 15 项计算机视觉任务,包括目标检测、分割、姿态估计等,并支持联邦多任务学习。除了标签分布的变化 - 通过提示驱动的特征转换解决联邦学习中的特征 - 分类器不匹配
传统联邦学习方法中的全局模型在面对数据异质性时表现欠佳。个性化联邦学习(PFL)使客户能够训练适应其本地数据分布的个性化模型。然而,我们惊讶地发现 FedAvg 中的特征提取器优于大多数 PFL 方法的特征提取器。更有趣的是,通过对特征提取 - 解决联邦学习中自私的客户
提出了一种名为 RFL-Self 的 Robust aggregation strategy 来有效减轻 Federated Learning 中 Selfishness 的影响,通过恢复自私客户端的真实更新并将其纳入聚合过程,实现对自私行 - 分层逐步训练的资源高效联邦多模态学习
整合多模态数据和隐私保护训练方法的 LW-FedMML 可有效减少多模态学习中的资源负担,与传统的 FedMML 相比,LW-FedMML 可降低记忆使用量 2.7 倍,计算操作量(FLOPs)2.4 倍,总通信成本 2.3 倍。同时,Pr - 一颗毒丸:绕过联邦学习检测
通过对现有攻击和防御的分析,本文提出了一种通用的、针对检测中的联邦学习(FL)中的现有 FL 中毒攻击的增强手法,揭示了现有防御的固有缺陷并证明了细粒度 FL 安全性的必要性。该手法通过在 FL 训练中策略性地构建、生成和注入毒药(由现有攻 - ICML联邦优化中数据异质性的新理论视角
这篇研究论文从新的角度解析数据异质性,通过提出异质性驱动的伪 Lipschitz 假设,替代了传统的局部 Lipschitz 梯度假设,并证明了 FedAvg 及其扩展算法的收敛界限可以显著降低,即使局部更新次数相同。实验证实了我们的结果。
- PUFFLE:在联邦学习中平衡隐私、效用和公平性
通过引入高级参数化方法 PUFFLE,本文首次在联邦学习 FL 场景中探讨了模型的公平性、隐私性和效用之间的平衡关系,并证明 PUFFLE 可以在不同数据集、模型和数据分布上实现高达 75% 的模型公平性改善,最差情况下最多只会导致 17% - 隐私保护的多中心差异蛋白质丰度分析与 FedProt
利用联邦学习和添加秘密共享,FedProt 是第一个用于协作分布式数据的差异蛋白质丰度分析的保护隐私工具,并已通过基于 LFQ E.coli 实验的五个中心数据集和基于 TMT 人体血清的三个中心数据集进行验证。FedProt 的准确性与应 - 智能电网中的分散联邦异常检测:一种 P2P 谣言传播方法
基于两种典型的 Gossip 协议 ——Random Walk 和 Epidemic,本文提出了一种新颖的分布式联邦异常检测方案,实验证明了它在去中心化联邦学习环境中的高效性和鲁棒性。
- 面向领域泛化和数据隐私的通用医学影像模型
提出了一种联合学习方法,通过从多个本地模型传递知识到全局模型,消除对每个模型训练所使用的本地数据集的直接访问需求,从而训练一个具备广泛医学图像处理能力的全局模型;验证实验表明,该方法在涉及不同医学图像应用的八个数据集上显著优越于最先进的基准