Jan, 2022
Decepticons:损坏变形金刚在语言模型联邦学习中侵犯隐私
Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models
TL;DR提出了一种攻击机制可在Federated Learning中,通过恶意参数向量直接攻击文本应用程序,利用Transformer架构和标记嵌入技术提取标记和位置嵌入来检索高保真文本,使得历史上抵抗隐私攻击的文本Federated Learning变得比以前更加脆弱。