联邦学习语言模型中的私有文本恢复
提出了一种攻击机制可在 Federated Learning 中,通过恶意参数向量直接攻击文本应用程序,利用 Transformer 架构和标记嵌入技术提取标记和位置嵌入来检索高保真文本,使得历史上抵抗隐私攻击的文本 Federated Learning 变得比以前更加脆弱。
Jan, 2022
最近,由于 ChatGPT 的出现,大型语言模型(LLMs)受到学术界和公众的广泛关注。然而,隐私问题限制了它们在现实生活中的应用。本文探讨了垂直联邦学习(VFL)在保护用户输入方面的失败,并提出了加强垂直联邦 LLMs 隐私的几种可能解决方案。
Nov, 2023
该研究论文研究了联邦学习中的数据隐私问题,提出了一种从共享梯度或权重中恢复训练数据的方法,并使用方法在 CIFAR-10 和 ImageNet 等图像基准上进行了实验,超过了现有的 GradInversion 技术。
Oct, 2021
我们的研究对联邦学习在训练大规模语言模型时的隐私分析进行了广泛的研究,从理论和实践角度设计了两种具有理论成功率的主动成员推断攻击,揭示了包括 BERT、RoBERTa、DistilBERT 和 OpenAI 的 GPT 在多个真实世界的语言数据集中存在的重大隐私漏洞,并评估了这些模型在采用最先进的差分隐私机制保护数据时的隐私泄漏情况。
Mar, 2024
我们介绍了关于从联邦语言模型中泄露隐私敏感用户数据的两个新发现:一是中间轮次的模型快照可能引起比最终训练模型更严重的隐私泄露,二是通过篡改模型的选择权重,可以加剧隐私泄露,并显示了恶意客户端如何在联邦学习中泄露某个其他用户的隐私敏感数据,甚至无需服务器的任何合作。我们的最佳方法提高了成员推理召回率 29%,可达到 70% 的私密数据重构,显然优于现有的攻击方法,其对对手能力有更强的假设。
Oct, 2023
本文研究基于大规模公共数据和语言模型的差分隐私联邦学习,提出了一种新的分布匹配算法,以样本高效为目标,实现了基于公共数据训练私有模型的高效和有效的方法。
May, 2023
本文研究了分布式学习中的数据重构攻击,并探讨了利用泄露数据进行模型训练和改进的可能性。研究表明,即使重构质量有限或泄露图像数量较少,也可以通过敌意训练模型更准确地使用泄露数据,对于下游训练而言,渐变反转攻击和线性层泄漏攻击存在一定的限制。
Mar, 2024
该研究探讨了大型语言模型在数据隐私方面引发的关切,并研究了恶意模型提供者通过输入重建攻击来侵犯隐私的潜力。研究提出了两种基础方法以重建模型隐藏状态中的原始文本,并介绍了一种基于 Transformer 的方法以重建深层嵌入的输入。研究发现 Embed Parrot 在从 ChatGLM-6B 和 Llama2-7B 的隐藏状态中重建原始输入方面表现良好,并提出了一种防御机制以阻止嵌入重建过程的滥用。研究结果强调在分布式学习系统中保护用户隐私的重要性,并为增强此类环境中的安全协议提供了有价值的见解。
May, 2024