SplitGuard:在分布式学习中检测和缓解训练劫持攻击
本文通过在服务器端注入后门触发器,对分割学习中的后门攻击进行了新型研究,研究结果表明,尽管使用了强的模式和注入方法,但分割学习对于这种污染攻击是高度强大和抗性强的。
Feb, 2023
本文旨在评估分片学习在抵御对抗攻击方面的鲁棒性,尤其是在非信任服务器只能访问模型的中间层时进行评估。通过提出一种定制的攻击方法 SPADV,证明了分片学习在面对对抗攻击时存在令人惊讶的脆弱性。
Jul, 2023
本文探讨了 Split Learning 协作机器学习框架的安全性,揭示了其安全漏洞,并提出了攻击策略。通过不同的实验和测试,论文表明了对该协议的攻击能够打破最近提出的安全防御技术,从而获得客户的数据信息。
Dec, 2020
通过研究 SplitNN 及其所带来的潜在威胁和攻击,本研究提出了一种隐私保护的信息交换通道,利用可控的解决方案扰乱知识的传播,并使用新的激活函数 R3eLU 来有效地防御威胁。本研究的实验结果表明,该方法在绝大部分情况下都能较好地平衡防御和模型可用性。
Apr, 2023
本文针对隐私敏感的应用,提出了一种针对实际分割学习的被动聚类标签推断攻击,该攻击可以通过收集交换的梯度和压碎数据来精确检索私有标签,并使用余弦和欧几里得相似度度量来分析潜在的标签泄露。实验结果表明,即使对标签进行差分隐私和梯度压缩的保护,攻击者仍然可以在不同的设置下(例如,切割层位置,时代和批量大小)实现准确的预测。
Mar, 2022
结合拆分学习和函数秘密共享的混合方法可以确保客户数据的隐私安全,并提高机器学习流程的效率。通过给激活图添加随机掩码,利用函数秘密共享生成股份,从而实现在前向和后向传播过程中,服务器无法从激活图重构客户的原始数据。此方法成功降低了隐私泄露,并对特征空间劫持攻击具有安全性保障。
Apr, 2024
本研究探索了在双方分别拥有数据的场景下,一方能否窃取另一方的标签信息,并提出了量化泄露度的隐私损失度量、防御方法和基于随机扰动的修复技术 $ exttt {Marvell}$。实验证明,该技术具有更好的隐私效果和使用效用权衡。
Feb, 2021
本论文旨在探讨对分布式数据集进行隐私合规高级分析时,分割学习和差分隐私这两项技术的应用。通过使用最近的特征空间劫持攻击对增强差分隐私的分割神经网络的学习过程进行攻击,我们发现差分隐私并不是很有效的保护方法,并提出了一些潜在的风险缓解方法。
Jan, 2022
使用分层学习 (SL) 和同态加密 (HE) 的混合方法在 MIT-BIH 数据集上提供了更快的训练时间 (大约是其他基于 HE 的方法的 6 倍) 和显著减少的通信开销 (几乎是其他方法的 160 倍),从而为深度学习中的敏感数据提供了更好的隐私保护。
Aug, 2023