Oct, 2023
M4LE: 一个适用于大型语言模型的多能力多范围多任务多领域长上下文评估基准
M4LE: A Multi-Ability Multi-Range Multi-Task Multi-Domain Long-Context Evaluation Benchmark for Large Language Models
Wai-Chung Kwan, Xingshan Zeng, Yufei Wang, Yusen Sun, Liangyou Li...
TL;DR我们提出了一个针对大型语言模型的多能力、多范围、多任务、多领域的长上下文评估基准(M4LE),并通过在 36 个 NLP 数据集、11 种任务类型和 12 个领域中用多样的 NLP 任务池来支持它。我们的研究揭示了当前的大型语言模型在理解长上下文方面的困难,尤其是在需要多个跨度注意力的任务上。我们的工作对于未来在这个具有挑战性的领域的研究具有有价值的参考价值。