融合评估器与 LLMs:Fusion-Eval
介绍了一个名为 FreeEval 的模块化和可扩展框架,用于可靠高效地自动评估大型语言模型,通过统一的架构整合了各种评估方法,并结合人工评估和数据污染检测等元评估技术,实现了评估结果的公平性。
Apr, 2024
我们提出了一个针对多语言情景下 LLMs 作为评估器的端到端评估框架,并创建了一个用于评估 LLM-based 评估器的精心策划的数据集,该数据集覆盖 10 种语言,包含本族语言者对摘要任务的判断。我们比较了基于 GPT-3.5-Turbo、GPT-4 和 PaLM2 创建的 LLM-based 评估器的性能,结果表明,基于 GPT-4 的 LLM-based 评估器在各种语言中表现最好,而 GPT-3.5-Turbo 的表现不佳。此外,我们对 LLM-based 评估器提供的推理进行分析,发现它往往与人类评判所提供的推理不一致。
Apr, 2024
本文提出了 LLM-Eval,一种针对使用大型语言模型(LLM)的开放领域对话进行多维自动评估的统一方法。通过设计基于单个提示的评估方法来覆盖会话质量的多个方面,LLM-Eval 可以在单个模型调用中进行。我们对 LLM-Eval 在各种基准数据集上的性能进行了全面评估,表明它相对于最先进的评估方法具有高效性和适应性。同时,该分析还强调了选择适当的 LLM 和解码策略以获得准确评估结果的重要性。LMM-Eval 为评估开放领域对话系统提供了一种多功能且强大的解决方案,可以简化评估过程并在不同场景中提供一致的性能。
May, 2023
本研究通过使用 SummEval 数据集进行一系列分析,证实了大型语言模型作为评估器在以下方面存在偏见和不一致性:(1)体现对低困惑度文本的偏好;(2)显示具有偏见的评分分布;(3)经历多属性判断时的锚定效应。此外,我们分享了配置大型语言模型评估器以减轻这些限制的方法,通过 RoSE 数据集的实验证明了与最先进的大型语言模型评估器相比的改进。
May, 2024
通过对大型语言模型的评估,本文发现 LLM-based evaluators 在多语言评估方面可能存在偏差,并需要使用本地语言的数据集进行校准。
Sep, 2023
提出了一种名为 FedEval-LLM 的大型语言模型联邦评估框架,通过利用参与者提供的个性化语言模型,提供了一种可靠的大型语言模型在下游任务中的性能测量方式,确保了强大的隐私保护能力,解决了传统评估方法和对外部服务的依赖性的限制,是协作训练场景中语言模型评估的一种有前景的框架。
Apr, 2024
我们提出了 F-Eval,这是一个双语评估基准,旨在评估大型语言模型的基本能力,包括表达能力、常识和逻辑。我们进行了 13 个先进 LLM 的评估,结果显示我们的评估方法与其他评估者相比具有更高的相关系数和更大的区别,并讨论了不同模型大小、维度和归一化方法的影响。我们期望 F-Eval 能促进对 LLMs 基本能力的研究。
Jan, 2024
通过多轮讨论辅助的 ScaleEval 元评估框架,充分利用多个交流能力的大语言模型代理进行可伸缩元评估,帮助人工标注员判断最有能力的大语言模型作为评估者,从而显著减轻他们的工作量。
Jan, 2024
提出了一种新的评估大型语言模型的方法 MixEval,通过混合现有的基准测试以匹配来自网络的查询与现有基准测试中的相似查询,建立了有效和可靠的 LLM 评估标准,进一步构建了 MixEval-Hard,为模型改进提供了更大的空间。
Jun, 2024
最近,大型语言模型的评估已成为一个热门的研究领域。本文分析了不同评估方法,比较了各种标准和评分系统,在多个任务和测试中使用了不同的评估者和评分方法,提出了一个新的数据集 LLMEval,并对 20 个大型语言模型进行了评估,得出了 10 个结论,为将来的语言模型评估提供了一些启示。
Dec, 2023