BriefGPT.xyz
Ask
alpha
关键词
attention information
搜索结果 - 1
LLM 或许为 LongLM: 无需调整自我延伸 LLM 上下文窗口
通过自扩展方法,利用现有的大型语言模型的内在能力来处理长文本,并延伸其上下文窗口,以有效应对长输入序列。
PDF
6 months ago
Prev
Next