Apr, 2021

隐私保护 BERT 的自然语言理解

TL;DR在自然语言理解和数据挖掘中,隐私保护仍然是一个关键的挑战。本文研究了对预先训练的语言模型应用局部差分隐私的隐私保护方法,并指出了这种方法在 BERT 细调中的实用性和隐私性的影响,同时提出了隐私适应性的语言模型预训练方法,可以显著提高 BERT 的实用性,并保持相同水平的隐私保护。本文实验和发现为未来探索隐私保护的自然语言理解提供了奠基。