通过对 Pythia 模型套件的记忆行为进行度量和分析,发现中间检查点是模型记忆行为的更好预测因素,同时提供了有关模型和数据记忆得分分布的新颖发现
Apr, 2023
这篇研究论文描述了大语言模型 (LMs) 如何通过增加模型容量、重复数据示例次数以及提示模型的上下文数量等因素持续增长来记忆其训练数据的程度。然而,该记忆过程会导致隐私泄露、降低数据质量并且存在不公平性问题,因此有减轻该问题的必要,尤其随着模型的规模持续增长,需要采取积极的对策。
Feb, 2022
通过新的度量衡、对抗攻击以及基于梯度上升和任务算术的两种新的遗忘方法,本研究提供了关于 LLMs 隐私保护和遗忘的新视角,并在大量 NLP 任务上进行了全面的性能评估。
May, 2024
大型语言模型在记忆方面的挑战和机会,包括隐私、安全、版权等问题,并提出目前的研究方向。
Oct, 2023
使用一种名为 “刻意想象” 的新方法,在大型语言模型(LLM)的条件下有效地取消已学习的文本,并在进行生成任务和自然语言理解(NLU)任务时保留其功能,从而解决 LLM 中私密和敏感数据的挑战。
Feb, 2024
通过测试效用一系列隐私保护技术来缓解大型语言模型不经意地记忆保密训练数据的风险,实验表明,差分隐私有可靠的隐私保护效果,但是性能代价较大。
Dec, 2022
通过 Bloom 过滤器与 ALL-CAPITAL text 跨越数据记忆的问题,阐述了训练数据的记忆问题与风险,并讨论了针对神经语言模型中数据记忆的潜在替代定义和本质难题。
Oct, 2022
大型语言模型通过精心设计的提示可以提取出其训练数据,这也带来了隐私风险。为了评估潜在的隐私风险,需要量化语言模型的记忆能力。本文提出了一个细粒度、基于实体级别的定义来量化记忆,并提供了一种从自回归语言模型中高效提取敏感实体的方法。实验结果显示,语言模型在实体级别上具有较强的记忆能力,并能够在部分泄露情况下重新生成训练数据。这些发现要求语言模型的训练者在模型记忆方面更加谨慎,采用记忆减轻技术以防止隐私侵犯。
Aug, 2023
本文提出了一种简单易行、计算轻量化的扰动机制,保证了模型的隐私性,在不影响模型实用性的情况下,可应用于所有 LLM 模型,解决了 LLM 在隐私保护与重新训练之间的折中问题。
May, 2022
大型语言模型的记忆化问题对于数据使用提出了重要疑问,本文提出了一种用于评估记忆化的度量标准 Adversarial Compression Ratio (ACR),通过对比模型生成字符串和原始字符串的长度,探讨了记忆化的界定和局限,并展示了 ACR 如何应用于监测遗忘和合规性,从而用作判断模型使用数据条款是否被违反的实用工具和法律手段。
Apr, 2024