通过势能损失使分裂学习具有标签泄漏韧性
本文研究了在1D CNN模型下使用分裂学习进行隐私保护的技术,发现分裂学习技术对保护数据隐私存在一定的泄露,提供了两种隐私泄露缓解技术:客户端增加隐藏层和应用差分隐私,但这些技术都会对模型准确性产生重要影响,因此,我们得出一个结论,分裂学习单独使用不能保持1D CNN模型下的原始序列数据的机密性。
Mar, 2020
本研究探索了在双方分别拥有数据的场景下,一方能否窃取另一方的标签信息,并提出了量化泄露度的隐私损失度量、防御方法和基于随机扰动的修复技术 $ exttt{Marvell}$。实验证明,该技术具有更好的隐私效果和使用效用权衡。
Feb, 2021
本文针对隐私敏感的应用,提出了一种针对实际分割学习的被动聚类标签推断攻击,该攻击可以通过收集交换的梯度和压碎数据来精确检索私有标签,并使用余弦和欧几里得相似度度量来分析潜在的标签泄露。实验结果表明,即使对标签进行差分隐私和梯度压缩的保护,攻击者仍然可以在不同的设置下(例如,切割层位置,时代和批量大小)实现准确的预测。
Mar, 2022
通过研究SplitNN及其所带来的潜在威胁和攻击,本研究提出了一种隐私保护的信息交换通道,利用可控的解决方案扰乱知识的传播,并使用新的激活函数R3eLU来有效地防御威胁。本研究的实验结果表明,该方法在绝大部分情况下都能较好地平衡防御和模型可用性。
Apr, 2023
介绍了 Split Learning 的优点和潜在的隐私风险,并提出了 EXACT 攻击方法以及不同隐私保护策略的有效性,结论表明,微小的差分隐私可以有效地减轻这一风险。
May, 2023
本文旨在评估分片学习在抵御对抗攻击方面的鲁棒性,尤其是在非信任服务器只能访问模型的中间层时进行评估。通过提出一种定制的攻击方法SPADV,证明了分片学习在面对对抗攻击时存在令人惊讶的脆弱性。
Jul, 2023
通过随机标签扩展(RLE)和基于模型的自适应标签扩展(MLE)来防御 Split Learning 中的标签推断攻击,提高隐私保护能力。实验结果表明,相比基本的防御方法,我们提出的防御方法可以显著降低攻击模型的性能,同时保持原始任务的性能。
Aug, 2023
使用分层学习 (SL) 和同态加密 (HE) 的混合方法在 MIT-BIH 数据集上提供了更快的训练时间 (大约是其他基于 HE 的方法的 6 倍) 和显著减少的通信开销 (几乎是其他方法的 160 倍),从而为深度学习中的敏感数据提供了更好的隐私保护。
Aug, 2023
本论文提出了基于U型分割学习的协议,可以在同态加密的数据上进行操作,从而保护用户隐私,并通过实验结果表明,在U型分割学习模式中使用同态加密只会将准确率降低2.65%,同时保护了原始训练数据的隐私。
Sep, 2023