ACLMay, 2022

可证明保密性的语言模型

TL;DR本文介绍了一种名为 Confidentially Redacted Training(CRT)的方法,该方法涉及到对特定的隐私信息进行保密,从而在训练大型自然语言生成模型时避免意外记忆,实验证明该方法可以在保留隐私的同时保持模型的准确性。