Dec, 2022
从微调和差分私有微调的 BERT 模型中提取命名实体的研究
A Study on Extracting Named Entities from Fine-tuned vs. Differentially Private Fine-tuned BERT Models
Andor Diera, Nicolas Lell, Aygul Garifullina, Ansgar Scherp
TL;DR本文研究从语言模型中提取个人信息风险,并探讨 Differentially Privacy 对 fine-tuned BERT 模型文本生成能力的影响,结果表明,BERT 不太可能泄露个人或隐私敏感的命名实体,并指出这些结果重要理解 BERT-based 服务易受到训练数据提取攻击的程度。