这篇研究论文描述了大语言模型(LMs)如何通过增加模型容量、重复数据示例次数以及提示模型的上下文数量等因素持续增长来记忆其训练数据的程度。然而,该记忆过程会导致隐私泄露、降低数据质量并且存在不公平性问题,因此有减轻该问题的必要,尤其随着模型的规模持续增长,需要采取积极的对策。
Feb, 2022
研究了大型语言模型的训练和记忆过程,在不同设置下测量了数据集大小、学习率和模型大小对其记忆能力的影响,证明更大的语言模型更快地记忆训练数据,更容易在训练过程中避免过度拟合。同时,分析了不同词性的记忆动态,发现名词和数字是模型记忆单个训练例子的唯一标识符。这些发现有助于深入了解模型变大所带来的真正好处。
May, 2022
通过Bloom过滤器与ALL-CAPITAL text跨越数据记忆的问题,阐述了训练数据的记忆问题与风险,并讨论了针对神经语言模型中数据记忆的潜在替代定义和本质难题。
Oct, 2022
通过对Pythia模型套件的记忆行为进行度量和分析,发现中间检查点是模型记忆行为的更好预测因素,同时提供了有关模型和数据记忆得分分布的新颖发现
Apr, 2023
大型语言模型在记忆方面的挑战和机会,包括隐私、安全、版权等问题,并提出目前的研究方向。
Oct, 2023
通过引入不同的技术评估语言模型是否在训练过程中看到表格数据,揭示出大型语言模型对流行表格数据的实质性记忆,尽管这种记忆导致过拟合,但在新颖数据集上仍表现出非常优秀的性能,并且在语境中的统计学习能力被发现受到限制。
Apr, 2024
大语言模型(LLMs)在各个领域展示了前所未有的性能,但其特殊行为之一——记忆化——仍缺乏解释,本研究通过多个角度全面探讨记忆化现象及其动态,并通过实验证实了模型大小、连续大小和上下文大小之间的记忆化关系,以及不同记忆化得分下句子的嵌入分布和解码动态,揭示了当模型开始生成记忆化或非记忆化句子时的边界效应,最后通过训练Transformer模型预测不同模型的记忆化,证明了通过上下文预测记忆化的可行性。
May, 2024
该研究通过评估训练数据的统计特征对模型中的记忆编码产生的影响,重现了重复次数对记忆序列遗忘概率的对数标度关系,并发现即使没有后续接触,经过多次训练的数据仍然可以在训练过程中被揭示。由于这些潜在的记忆序列可能隐藏在模型的最终检查点上,这对数据隐私具有挑战性。为此,我们开发了一种通过考虑交叉熵损失来揭示这些潜在记忆序列的诊断测试。
Jun, 2024
本研究解决了大型语言模型(LLMs)记忆训练数据的程度及其对输出可靠性和隐私的影响。作者提出了一种实验框架,通过反复向LLMs展示随机字符串,从而分析模型行为,发现不同模型具有一致的记忆动态,并识别了影响记忆能力的因素及当地前缀和全局上下文的作用。这些发现对LLMs的研究和应用具有重要的影响。
Jul, 2024
本研究聚焦在大型语言模型(LLMs)的不良记忆问题,揭示其潜在的伦理和法律风险。通过系统化知识的方式,分析了记忆现象的多个维度,并提出性能与隐私平衡的方法以缓解这些风险,强调了该研究对确保模型安全性的重要性。
Oct, 2024