垂直联邦神经网络的安全前向聚合
本文提出了一种使用最先进的安全模块进行安全和高效的垂直联邦学习的新方法,与同态加密(HE)相比,该方法提供了 9.1e2〜3.8e4 的加速,同时不影响训练性能。
May, 2023
本文提出了一种名为 vFedSec 的新型设计,其中包含一个创新的安全层,可使用安全聚合中的最新安全模块安全高效地进行垂直联邦学习,实现隐私数据的有效保护,并且速度比同类方法快得多。
May, 2023
本文提出 FedVS 解决纵向联邦学习中的两个主要问题:拖延的客户端会导致性能下降;本地数据和模型的上传会导致信息泄露。FedVS 通过设计本地数据和模型的密钥分享方案,同时保证了信息论隐私并防止客户端和服务器泄露。实验证明 FedVS 在各种类型的 VFL 数据集上都具有普遍优势。
Apr, 2023
本文从硬件层到垂直联邦系统层对垂直联邦学习的现有工作和挑战进行分类,特别设计了一种新的 MOSP 树分类法来分析保护对象、安全模型和隐私保护协议等四个维度的核心组件 - 安全垂直联邦机器学习算法。
Apr, 2023
本文研究了垂直联邦学习中的干扰攻击,提出了第一种干净标签后门攻击技术,并在三个数据集上验证了其有效性,研究了攻击成功的因素,并讨论了减轻其影响的对策。
Apr, 2023
本文提供了关于垂直联邦学习的综述,包括联邦学习的概念、算法及其各个方面的挑战和现有进展;介绍了 VFL 的分类、隐私保护协议、攻击和防御策略,并提出了 VFLow 统一框架;最后还回顾了工业应用的最新进展和存在的开放性问题和未来发展方向。
Nov, 2022
利用统一 InverNet 框架引入 VFL 中,通过利用中间特征数据重构原始数据,而不是依赖于梯度或模型细节,我们的研究揭示了 VFL 系统中的严重隐私漏洞,这对实际 VFL 应用构成了真正的威胁,并证实了进一步增强 VFL 架构中的隐私保护的必要性。
Jun, 2024
纵向联邦学习是一种隐私保护的分布式学习范式,不泄露私密数据的情况下,不同参与方通过使用共享样本的分区特征协同学习模型。本文对纵向联邦学习的最新发展进行了系统概述,并提出了几个关键的未来研究方向,以促进该领域的发展。
May, 2024
本文提出一种 VFBL 框架,整合了新的向后更新机制和双层异步并行体系结构(VF {${ extbf {B}}^2$}),在该框架下提出了三种新算法,包括 VF {${ extbf {B}}^2$}-SGD,-SVRG 和 - SAGA,这三个算法在强凸和非凸条件下具有收敛速率的理论结果,我们也证明了 VF {${ extbf {B}}^2$} 的安全性。 大量基准数据集上的实验表明,我们的算法具有高效性,可扩展性和无损失性。
Mar, 2021