ACLJul, 2024

神经缓存:长距离语言建模的高效向量检索

TL;DR介绍了一种名为 Neurocache 的方法,它使用外部向量缓存扩展了大型语言模型的有效上下文大小,通过存储过去的状态并利用高效的 k 最近邻算法检索相关的过去状态并将其纳入注意力过程中,进而提高语言建模和下游任务准确性。