SirLLM: 流式无限保留 LLM
通过引入一种无需训练的基于内存的方法 InfLLM,使得大型语言模型 (LLM) 能够高效处理长序列并捕获远距离依赖关系。
Feb, 2024
本文提出了 Self-Controlled Memory 系统,包括语言模型代理、记忆流和记忆控制器三个核心模块,可以扩展 Large-scale Language Models 的输入容量,使其能够处理超长文本,而且实验结果表明该系统能够使非优化多轮对话的模型达到与 ChatGPT 相当的效果,并在超长文本摘要或长期对话方面优于 ChatGPT。
Apr, 2023
部署大型语言模型(LLMs)在流式应用中的一个研究论文,介绍了两个主要挑战和一个有效的解决方案 StreamingLLM,用于长文本的流式部署,能够在无需微调的情况下实现 LLMs 的稳定和高效的语言建模。
Sep, 2023
MEMORYLLM 是一个自我更新且具有信息记忆能力的模型,它通过在 transformer 的潜在空间中引入固定大小的内存池,能够有效地整合新知识并保持长期信息记录能力,同时维持操作性完整性。
Feb, 2024
这篇论文介绍了 VideoStreaming,一种用于视频理解的先进视觉语言大型模型 (VLLM),它能够通过编码和自适应选择的少量视频标记流式地理解任意长度的视频。
May, 2024
提出了一种新的 RET-LLM 框架,它为 LLMs 提供了一个通用的写 - 读内存单元,使它们能够从文本中提取、存储和检索知识,以便进行任务执行。通过 Davidsonian 语义理论,以三元组的形式提取和保存知识,在问答任务中展现出比基线方法更卓越的性能。此外,该框架在处理基于时间的问题回答任务时表现出了强大的性能,展示了它有效处理时态信息的能力。
May, 2023
用 XL3M 框架,将上下文分解成多个独立片段并通过衡量其与 “问题” 的相关性来构建一个简明的关键上下文,从而解决了大语言模型在处理超长文本时的泛化失败问题,并在推理任务中展现了卓越的性能。
May, 2024
通过学习视频流进行大规模语言模型增强,提供视觉能力及实时对话功能,以应对视频流输入的视频流对话学习目标、数据生成方案和优化推断流程的新颖学习框架。
Jun, 2024