Feb, 2024

CAMELoT:针对不需要训练的集成联想存储的大型语言模型

TL;DR通过引入关联记忆模块,在不需要重新训练的情况下,使得任何预训练(固定)基于注意力的大型语言模型能够处理任意长的输入序列,从而在长文本建模中实现了显著的困惑度降低。