QuickLLaMA: 大型语言模型的查询感知推理加速
大型语言模型可用于定量信息检索,以帮助数据分析任务,如贝叶斯模型的先验分布以及缺失数据的插补。我们提出了一个提示工程框架,将大型语言模型视为科学文献的潜在空间界面,并与其他已建立的方法进行比较。同时讨论了使用大型语言模型作为 “专家” 的影响和挑战。
Feb, 2024
大规模语言模型的有效推理需要克服模型规模大、注意力操作复杂度高、自回归解码等问题,本文对提高大规模语言模型推理效率的现有技术文献进行了综述,介绍了数据层、模型层和系统层优化的方法,并通过实验进行了定量分析,最后总结了相关知识,并探讨了未来研究方向。
Apr, 2024
LLMA 是一种基于并行计算的 LLM 加速器,通过在一次解码步骤中选择参考文本并将其标记复制到解码器,即可实现对 LLM 的推理加速并提高计算并行性,使其在多种实际生成场景中生成结果与贪婪解码相同,达到 2 倍以上的加速。
Apr, 2023
我们提出了一个针对大型语言模型的成本效益查询分配问题的框架,名为 OptLLM,通过使用多标签分类模型进行性能预测,生成一系列优化解决方案,旨在满足用户的预算限制和性能偏好,包括最大化准确性和最小化成本。OptLLM 在各种类型的任务上进行了广泛的实验,包括文本分类、问答、情感分析、推理和日志解析,实验证明 OptLLM 在降低成本 2.40% 至 49.18% 的同时实现与最佳大型语言模型相同的准确性,相比其他多目标优化算法,OptLLM 在相同成本下提高 2.94% 至 69.05% 的准确性或节省 8.79% 至 95.87% 的成本并保持最高可达准确性。
May, 2024
本文提出了一种高效的大语言模型推理流水线方法,该方法利用大语言模型的潜力来准确感知和预测响应长度,并通过引入有效的序列调度技术对响应长度相似的查询进行微批处理,从而实现了 86%的推理吞吐量的提高,同时不影响其效果。该方法是现有工具包(如 FlashAttention,Quantization)中的一个宝贵补充。
May, 2023
用 XL3M 框架,将上下文分解成多个独立片段并通过衡量其与 “问题” 的相关性来构建一个简明的关键上下文,从而解决了大语言模型在处理超长文本时的泛化失败问题,并在推理任务中展现了卓越的性能。
May, 2024
本文介绍了一种用于大型语言模型(LLMs)的新型低延迟推断框架,使 LLMs 能够使用不完整的提示进行推断,并通过重新分配计算过程到提示输入阶段,实现了大幅度的延迟降低,从而显著提高用户与 LLMs 的交互体验。该框架灵活地管理模型对流式提示的可见性,允许它从不完整的提示中进行推断或等待附加提示。与使用完整提示的传统推断方法相比,我们的方法在 MMLU-Pro 数据集上表现出平均响应延迟减少 59%,同时保持相当的准确性。此外,我们的框架促进了不同模型之间的协同推断和输出。通过使用 LLM 进行推断和使用小型语言模型(SLM)进行输出,与 SLM 基线相比,我们在 MMLU-Pro 数据集上实现了平均响应延迟减少 68%,准确性提高了 5.5%。对于超过 20 个句子的长提示,响应延迟可以降低高达 93%。
Jun, 2024
通过引入一种无需训练的基于内存的方法 InfLLM,使得大型语言模型 (LLM) 能够高效处理长序列并捕获远距离依赖关系。
Feb, 2024
本文提出了一种使用大语言模型的通用交互式查询重写框架,旨在提高透明性和意图理解能力,并改变传统的意图理解方法;在初步实验的支撑下,通过自然语言表达、交互和推理机器意图,取得了显著的排序性能提升。
Jun, 2023
该研究探讨了使用大型语言模型(LLMs)进行基于查询的会议摘要生成任务,通过在单个提示中组合相同输入上下文的查询以最小化重复调用,优化推理成本,发现多数 LLMs 对于多查询指令存在响应,但除 GPT-4 外,即使进行了微调,几乎所有 LLMs 都无法以所需的输出格式正常生成响应,因此多查询提示只适用于特定的 LLMs。
Feb, 2024