关键词context length extrapolation
搜索结果 - 2
- 大语言模型中上下文长度扩展技术的什么、为什么和如何 - 详细调查
大语言模型的出现在自然语言处理领域具有重大突破,但是它们在上下文长度的推断方面常常存在限制。了解和扩展大语言模型的上下文长度对于提升其在各种自然语言处理应用中的性能至关重要。本综述论文将深入探讨为什么扩展上下文长度以及先进技术可能带来的潜在 - 长颈鹿:在 LLM 中扩展上下文长度的探险
现代大型语言模型(LLMs)通常使用固定的上下文长度进行训练,但这限制了它们在评估时能处理的输入序列的长度。为了在训练时间上下文长度之外的较长序列上使用这些模型,可以采用不断增长的上下文长度外推方法。本文对现有的上下文长度外推方法进行了广泛