FedVS: 面向分割模型的容错和隐私保护垂直联邦学习
垂直联邦学习(VFL)是一种新兴的分布式机器学习范式,其中具有共同实体的不同特征的所有者合作学习一个全局模型,而不共享数据。我们提出了解耦的 VFL(DVFL)作为一种分块学习方法,它允许分散聚合和特征学习与标签监督之间的隔离,在容错性和安全性方面具有优势。我们使用 DVFL 训练分割神经网络,并证明在各种分类数据集上,模型性能与 VFL 相当。
Mar, 2024
本文提出了一种名为 vFedSec 的新型设计,其中包含一个创新的安全层,可使用安全聚合中的最新安全模块安全高效地进行垂直联邦学习,实现隐私数据的有效保护,并且速度比同类方法快得多。
May, 2023
垂直联邦学习是一种联邦学习的类别,在这种类别中,每个客户端共享相同的样本空间,但仅持有特征的子集。本文提出了 Internet Learning(IL),包括其数据分割和网络环境,将性能表现优化为处理客户端的极端动态条件的主要目标。在模拟传感器网络的基础上,通过实现新方法,提出指标并广泛分析结果,证明所开发的方法对网络变化的鲁棒性更优于 VFL 基线。
Dec, 2023
“Secret-shared Time Series Forecasting with VFL” (STV) is a novel framework that addresses challenges in vertical federated learning, providing privacy-preserving algorithms for time series forecasting with strong convergence, minimal hyperparameter tuning, and scalability analysis.
May, 2024
本文提出了一种使用最先进的安全模块进行安全和高效的垂直联邦学习的新方法,与同态加密(HE)相比,该方法提供了 9.1e2〜3.8e4 的加速,同时不影响训练性能。
May, 2023
该论文研究了 VFL 中一个常用的神经网络框架 SplitNN,并提出了一个综合考虑数据安全和模型性能的神经网络协议 SFA,采用可移除的遮罩以保护原始数据,在实验中证明 SFA 能够同时实现数据安全和高模型性能。
Jun, 2022
本文研究了垂直联邦学习在数据隐私和任务效用目标之间的微妙平衡,并提出了一种灵活而通用的方法来解决这个问题。通过对共享特征嵌入进行规范剪裁,我们首先得出了严格的隐私保证,接下来通过对特征嵌入的规模和分布进行自适应调整,我们还优化了任务效用,同时不损害建立的差分隐私机制。通过大量实验证明了我们提出的 VFL-AFE 框架能有效抵御隐私攻击并保持有利的任务效用。
Jul, 2023
这篇研究论文旨在解决协作机构拥有具有不同特征的同一组用户数据和只有一个组织持有标签等场景下的隐私保护垂直联邦学习问题,并提出了一种名为 Pivot 的隐私保护垂直决策树训练和预测的解决方案,该方案不依赖于任何受信任的第三方,并提供了针对半诚实对手的保护。
Aug, 2020
本文针对垂直联邦学习 (VFL) 这种特殊的架构设计,旨在解决 VFL 中关于安全隐私、大量计算和通信成本、模型分裂和系统异构等方面的研究挑战,提出有效的解决方案并在真实数据集上进行了实验,证明了我们的方案的有效性。
Feb, 2022