LooGLE: 长文本语言模型是否理解长文本上下文?
在极限标签分类领域中,本研究介绍了一种专门的基准测试(LIConBench),重点关注长上下文学习。我们评估了 13 个长上下文大语言模型在我们的基准测试上,发现在 20K 的令牌长度下,大部分大语言模型表现相对良好且受益于利用长上下文窗口,然而,在上下文窗口超过 20K 后,除了 GPT-4 之外,大部分大语言模型表现出明显下降。这表明现有大语言模型在处理和理解长的上下文丰富序列时存在显著差距。我们的研究揭示了当前大语言模型在长上下文理解和推理方面仍存在挑战,我们相信 LIConBench 可以作为未来长上下文大语言模型的更切实可行的评估。
Apr, 2024
通过引入 LongBench,对 8 个大型语言模型进行全面评估,我们发现商业模型(GPT-3.5-Turbo-16k)优于其他开源模型,但在更长的语境下仍存在困难;在较长序列上进行的缩放位置嵌入和微调,在长语境理解方面带来了实质性的改进;检索等上下文压缩技术对于长上下文能力较弱的模型带来了改进,但性能仍落后于具有强大长上下文理解能力的模型。
Aug, 2023
我们提出了评估长上下文语言模型的标准化评估方法,开发了包含 411 个长文档和超过 2,000 个查询 - 回复对的 L-Eval,经过作者手工注释和检查。结果表明,开源模型在开放式任务和封闭式任务上都表现出令人印象深刻的性能,其中 LLaMA2 在 4k 上下文长度的开放式任务中获得最佳结果,而 ChatGLM2 在 8k 输入标记的封闭式任务中取得最佳结果。
Jul, 2023
基于长上下文语言模型(LCLMs)的 LOFT 基准评估了 LCLMs 在上下文检索和推理方面的性能,发现它们能与最先进的检索系统和 RAG 系统媲美,但在像 SQL 一样需要组合推理的领域仍存在挑战,提示着需要继续研究随着上下文长度增长时的提示策略的影响。LOFT 为 LCLMs 提供了严格的测试平台,展示了随着模型能力的扩展,它们取代现有范式并解决新任务的潜力。
Jun, 2024
我们介绍了一个长文本理解的基准测试 XL2Bench,其中包含三个场景:小说阅读、论文阅读和法律阅读,以及四个难度递增的任务:记忆检索、细节理解、整体理解和开放式生成,涵盖了 27 个子任务,用英文和中文表示,平均长度为 100K + 词(英文)和 200K + 字符(中文)。我们评估了六个领先的大型语言模型在 XL2Bench 上的表现,发现它们的性能明显落后于人类水平。此外,我们观察到在原始数据集和增强数据集上的性能下降,凸显了我们缓解数据污染的方法的有效性。
Apr, 2024
理解上下文是理解人类语言的关键,本论文介绍了一个上下文理解基准,通过适应现有数据集来评估生成模型的能力,并发现预先训练的稠密模型在理解复杂上下文特征方面比优化调整模型困难。
Feb, 2024
我们提出了一个用于评估长文本上下文下的大型语言模型的全面中文基准测试 ——CLongEval,特点是足够的数据量、广泛的适用性和高质量。通过对 6 个开源长文本上下文大型语言模型和 2 个领先的商业对手进行评估,我们对长文本上下文模型的关键能力进行了深入分析,并提供了数据集、评估脚本和模型输出。
Mar, 2024
该研究旨在通过引入 MileBench 基准来系统评估多模态大型语言模型(MLLMs)在长上下文和多图像任务中的适应能力,并发现开源 MLLMs 在长上下文情境中面临着挑战,尤其在涉及多图像的情景下。
Apr, 2024
我们引入了 Ada-LEval,这是一个适用于评估 LLM 长上下文理解能力的长度可适应性基准测试,包括两个具有挑战性的子集 TSort 和 BestAnswer,通过评估 4 个最先进的闭源 API 模型和 6 个开源模型,证明了目前 LLM 在超长上下文环境中的局限性。
Apr, 2024