本文通过在服务器端注入后门触发器,对分割学习中的后门攻击进行了新型研究,研究结果表明,尽管使用了强的模式和注入方法,但分割学习对于这种污染攻击是高度强大和抗性强的。
Feb, 2023
通过两种新攻击方法,我们表明 Split learning 算法不能保障训练数据和模型参数的安全,因此提供的隐私保护是虚假的。
Aug, 2021
本文针对隐私敏感的应用,提出了一种针对实际分割学习的被动聚类标签推断攻击,该攻击可以通过收集交换的梯度和压碎数据来精确检索私有标签,并使用余弦和欧几里得相似度度量来分析潜在的标签泄露。实验结果表明,即使对标签进行差分隐私和梯度压缩的保护,攻击者仍然可以在不同的设置下(例如,切割层位置,时代和批量大小)实现准确的预测。
Mar, 2022
本文提出 SplitGuard 方法来检测分布式深度学习模型中的训练劫持攻击,以保障数据私密性的同时,最大化减少敏感信息恢复的风险。
本文旨在评估分片学习在抵御对抗攻击方面的鲁棒性,尤其是在非信任服务器只能访问模型的中间层时进行评估。通过提出一种定制的攻击方法 SPADV,证明了分片学习在面对对抗攻击时存在令人惊讶的脆弱性。
Jul, 2023
本文首次对 SplitFed 的强韧性进行了实证分析,结果表明 SplitFed 在面对模型毒化攻击时降低精度的程度是 Federated Learning 的 1/5,这是由于 SplitFed 具有较小的维度和更高的抗攻击能力。
Dec, 2022
本研究探讨了利用少量标记样本来微调底层模型从而导致的隐私泄漏问题,并通过引入势能损失来增加底层模型输出的复杂性,使其更难以被泄漏,从而提高了 Split Learning 的隐私安全性。
Oct, 2022
通过随机标签扩展(RLE)和基于模型的自适应标签扩展(MLE)来防御 Split Learning 中的标签推断攻击,提高隐私保护能力。实验结果表明,相比基本的防御方法,我们提出的防御方法可以显著降低攻击模型的性能,同时保持原始任务的性能。
Aug, 2023
通过研究 SplitNN 及其所带来的潜在威胁和攻击,本研究提出了一种隐私保护的信息交换通道,利用可控的解决方案扰乱知识的传播,并使用新的激活函数 R3eLU 来有效地防御威胁。本研究的实验结果表明,该方法在绝大部分情况下都能较好地平衡防御和模型可用性。
Apr, 2023
提出了 SDAR,这是一个针对 Split Learning 的新型攻击框架,利用辅助数据和对抗正则化来学习客户端私有模型的具有解码能力的模拟器,在标准 Split Learning 下有效地推断客户端的私有特征,在 U 形 Split Learning 下推断特征和标签。该攻击方法在实验验证中达到了与主动攻击相当的效果,尤其在现有被动攻击难以重构客户端私有数据的挑战性实际场景中,SDAR 在深度分割级别为 7 的 CIFAR-10 数据集上,在标准和 U 形 Split Learning 下实现了私有特征重构时的均方误差小于 0.025 的结果,并在 U 形设置中达到了超过 98% 的标签推断准确率,而现有攻击方法未能产生重要结果。
Oct, 2023