联邦学习语言模型中的私有文本恢复
本研究提出了一种名为 TextHide 的方法,它可以在不影响训练效率或准确性的情况下有效地减少分布式或联邦学习中的隐私风险,通过简单地添加加密步骤来防止窃听攻击者恢复私人文本数据,该方法能够与预训练语言模型的微调框架很好地契合,并在 GLUE 基准测试中取得了良好的效果,可以有效抵御共享梯度和表示的攻击,并仅平均准确率降低了 1.9%。
Oct, 2020
本研究论文在大规模语言模型训练及私人数据集保护之间发现了一定的矛盾,由此提出了一种通过查询语言模型进行训练数据提取的攻击方法,并以GPT-2为例证,能够成功地提取训练数据中的个人信息、代码等敏感信息,这也提示着训练数据的隐私和安全问题,需要进一步的技术防范措施。
Dec, 2020
该研究论文研究了联邦学习中的数据隐私问题,提出了一种从共享梯度或权重中恢复训练数据的方法,并使用方法在CIFAR-10和ImageNet等图像基准上进行了实验,超过了现有的GradInversion技术。
Oct, 2021
提出了一种攻击机制可在Federated Learning中,通过恶意参数向量直接攻击文本应用程序,利用Transformer架构和标记嵌入技术提取标记和位置嵌入来检索高保真文本,使得历史上抵抗隐私攻击的文本Federated Learning变得比以前更加脆弱。
Jan, 2022
本文通过研究NLP模型中的稀有词嵌入,调查了后门攻击的模型毒化的可行性。在文本分类中,不到1%的对手客户端就足以操纵模型输出,而对于一个较简单的数据集,仅需0.1%的对手客户端就足以有效地污染全局模型。此外,我们还提出了一种针对联邦学习方案的技术——梯度集成,它提高了后门性能在我们的所有实验设置中表现出优越性。
Apr, 2022
我们介绍了关于从联邦语言模型中泄露隐私敏感用户数据的两个新发现:一是中间轮次的模型快照可能引起比最终训练模型更严重的隐私泄露,二是通过篡改模型的选择权重,可以加剧隐私泄露,并显示了恶意客户端如何在联邦学习中泄露某个其他用户的隐私敏感数据,甚至无需服务器的任何合作。我们的最佳方法提高了成员推理召回率29%,可达到70%的私密数据重构,显然优于现有的攻击方法,其对对手能力有更强的假设。
Oct, 2023
DAGER是一种用于恢复文本数据批的算法,通过利用self-attention层的梯度的低秩结构和标记嵌入的离散性质,以精确的方式恢复整个批次的输入文本数据,用于编码器和解码器架构,并在实验中表现出超过0.99的ROUGE-1/2,速度比之前的攻击快了20倍,并且在可扩展性上可以处理10倍以上的批大小。
May, 2024
我们提出了一种用于大型语言模型的联邦学习框架FL-GLM,通过在本地客户端放置输入块和输出块以防止来自服务器的嵌入梯度攻击,使用密钥加密来防止来自对端客户端的逆向工程攻击,并采用客户端批处理或服务器分层等优化方法来提高训练效率。通过在NLU和生成任务上的实验结果,证明了FL-GLM与集中式chatGLM模型具有可比较的指标,验证了我们的联邦学习框架的有效性。
Jun, 2024