Apr, 2024

隐私保护提示工程:综述

TL;DR预训练语言模型(PLMs)在解决各种自然语言处理(NLP)任务上展现出显著的熟练度。研究人员观察到这些模型的性能和规模之间存在直接关联。最近几年,这些模型的规模明显扩大,研究人员因此采用了大型语言模型(LLMs)这一术语来描述规模较大的 PLMs。增加的规模伴随着一种称为上下文学习(ICL)的特殊能力,它代表了一种专门的提示形式。这使得 LLMs 能够通过展示演示例子的方式在保持模型参数冻结的同时,为特定的下游任务提供利用。尽管有趣,但隐私问题成为其广泛使用的主要障碍。多个研究已经考察了与 ICL 和提示一般相关的隐私风险,并提出了缓解这些风险的技术。因此,有必要为社区整理这些缓解技术。本综述提供了 ICL 和提示一般过程中采用的隐私保护方法的系统概述。我们对该范式下的不同方法进行了回顾、分析和比较。此外,我们提供了可用于开发这些框架的资源的概要。最后,我们讨论了这些框架的局限性,并对需要进一步探索的有希望的领域进行了详细的研究。