BriefGPT.xyz
Ask
alpha
关键词
selective context
搜索结果 - 2
EMNLP
压缩上下文以增强大型语言模型的推理效率
使用选择性上下文方法(Selective Context)可以显著提高大型语言模型(LLMs)的推理效率,减少内存占用和推理时间,并在维持可比较性能的基础上实现对上下文成本的 50%降低,36%的推理内存使用率降低以及 32%的推理时间降低
→
PDF
9 months ago
使用基于自信息的内容过滤增强 LLMs 的上下文效率:揭示 LLMs 的上下文约束
本文提出了一种名为 “选择性上下文” 的方法,利用自身信息来过滤 less informative 的内容,并在不同数据源上展示了提高固定上下文长度效率的有效性。
PDF
a year ago
Prev
Next