Apr, 2021
隐私保护BERT的自然语言理解
Privacy-Adaptive BERT for Natural Language Understanding
TL;DR在自然语言理解和数据挖掘中,隐私保护仍然是一个关键的挑战。本文研究了对预先训练的语言模型应用局部差分隐私的隐私保护方法,并指出了这种方法在BERT细调中的实用性和隐私性的影响,同时提出了隐私适应性的语言模型预训练方法,可以显著提高BERT的实用性,并保持相同水平的隐私保护。本文实验和发现为未来探索隐私保护的自然语言理解提供了奠基。