Jun, 2024

循环上下文压缩:高效扩大LLM的上下文窗口

TL;DR使用递归上下文压缩方法(RCC)有效地扩展了基于Transformer的大型语言模型(LLMs)的上下文窗口长度,解决了模型回应质量变差的问题,并以接近0.95的BLEU4得分在文本重建任务中实现了高达32倍的压缩率,以及在1M序列长度的密码检索任务中近乎100%的准确率,同时在长文本问答任务中表现出与非压缩方法相媲美的性能,并显著节省了存储资源。