Jan, 2022
Decepticons:损坏变形金刚在语言模型联邦学习中侵犯隐私
Decepticons: Corrupted Transformers Breach Privacy in Federated Learning for Language Models
Liam Fowl, Jonas Geiping, Steven Reich, Yuxin Wen, Wojtek Czaja...
TL;DR提出了一种攻击机制可在 Federated Learning 中,通过恶意参数向量直接攻击文本应用程序,利用 Transformer 架构和标记嵌入技术提取标记和位置嵌入来检索高保真文本,使得历史上抵抗隐私攻击的文本 Federated Learning 变得比以前更加脆弱。