无第三方协调员的垂直联邦学习并行分布式逻辑回归
研究垂直联邦学习结构用于逻辑回归,建立在同态加密方案之上的拟牛顿方法可解决交流困境,能够显著降低交流轮数,并且在每轮中,附加的沟通成本较少。
Dec, 2019
本文针对垂直联邦学习 (VFL) 这种特殊的架构设计,旨在解决 VFL 中关于安全隐私、大量计算和通信成本、模型分裂和系统异构等方面的研究挑战,提出有效的解决方案并在真实数据集上进行了实验,证明了我们的方案的有效性。
Feb, 2022
本文提出了用于分布式数据的二元编码模型的联邦训练方法DCCO(Distributed Cross Correlation Optimization),并将其与现有联邦方法进行了比较,实验结果显示DCCO的性能优于现有联邦方法。
Sep, 2022
垂直联邦学习(VFL)作为一种集成样本对齐和特征汇聚的新型训练范例,受到了越来越多的关注。然而,现有的VFL方法在处理参与者之间的异构本地模型时面临挑战,影响了优化收敛和泛化能力。为了解决这个问题,本文提出了一种新颖的方法,称为垂直联邦学习用于训练多方异构模型(VFedMH)。VFedMH专注于聚合每个参与者的知识嵌入,而不是在前向传播过程中聚合中间结果。通过安全地聚合本地嵌入获取全局知识嵌入,并将其发送给被动方。然后,被动方利用全局嵌入在本地异构网络上进行前向传播。然而,被动方没有标签,因此无法在本地计算本地模型的梯度。为了克服这个局限性,主动方协助被动方计算其本地异构模型梯度。然后,每个参与者使用异构模型梯度训练其本地模型,目标是最小化各自本地异构模型的损失值。此外,本文还对VFedMH的收敛性能进行了理论分析。通过大量实验证明,VFedMH能够同时训练多个异构模型,并在模型性能方面超过一些最近的方法。
Oct, 2023
在本文中,我们提出了一种名为FedCOME的共识机制,通过在服务器端对客户端的梯度进行微调,保证了每轮训练后每个客户端的风险减少;我们还设计了一种新的客户端采样策略,将共识机制推广到部分参与的联邦学习场景,有效地减少了未被选中的客户端的风险。通过在四个基准数据集上进行广泛实验证明了FedCOME在效果、效率和公平性方面优于其他最先进的方法。
Nov, 2023
本文提出了一种名为FedEmb的泛化算法,用于建模垂直和混合DNN学习,通过提高推理准确性、增强隐私保护性质以及降低客户端与服务器通信带宽需求,该方法在处理分散问题时展现出了显著的0.3%至4.2%推理准确性的提升,并减少了88.9%的时间复杂度相对于垂直基线方法。
Nov, 2023
该研究提出了第一个用于垂直联合学习(VFL)中贝叶斯模型拟合的全面框架,通过数据增强技术将VFL问题转化为与现有贝叶斯联合学习算法兼容的形式,并开创了在垂直分区数据场景中进行隐私保护、去中心化贝叶斯推断的新研究方向与应用领域。
May, 2024
通过引入联邦递归岭回归 (Fed3R) 方法,为了解决非独立同分布数据分布造成的统计异质性问题,本研究提出了一种采用闭式计算得出的岭回归分类器的联邦学习策略。该方法对统计异质性的数据分布具有免疫力,并且对客户端的采样顺序是不变的,因此在跨设备场景中十分有效。此外,它在通信和计算成本方面快速高效,所需资源比同类竞争方法少两个数量级。最后,我们建议将 Fed3R 参数作为 softmax 分类器的初始值,并通过任何联邦学习算法进行模型微调(Fed3R + Fine-Tuning)。研究结果还表明,在跨设备场景中维持一个固定的分类器有助于稳定训练和学习更具辨别力的特征。
Jun, 2024
该研究解决了在参与者众多的情况下,纵向联邦学习中样本对齐和模型训练速度缓慢的问题。提出的TreeCSS框架通过设计高效的多方私有集合交集协议和核心集选择方法,加速了对齐和训练过程。实验结果表明,相比传统方法,TreeCSS在加速训练的同时能够保持相似的模型准确度。
Aug, 2024