Jan, 2025
通过模型归因分析大型语言模型中的记忆现象
Analyzing Memorization in Large Language Models through the Lens of
Model Attribution
TL;DR本研究解决了大型语言模型(LLMs)在实际应用中由于记忆训练数据而导致的隐私和版权问题。我们从架构的角度分析注意力模块对记忆和泛化性能的影响,发现深层变换器块中的注意力模块主要负责记忆,而早期模块对于模型的泛化和推理能力至关重要。这些发现为减少LLMs的记忆效应提供了实际的解决方案,同时保持其性能,有助于在实际应用中实现更安全和更具伦理的部署。