Oct, 2023

隐私保护 BERT 语言能力的解耦

TL;DR采用一系列解释技术对来自在扰动预文本上训练的 BERT 的内部表示进行解析,旨在在语言层面上解开差分隐私引起的失真。实验证据表明,内部表示的整体相似度显著降低。使用探测任务来解析这种不相似性,发现文本到文本的隐私处理影响了多种形式的语言能力,编码了单词的局部属性,但在编码单词串的上下文关系方面存在不足。