MathCAMPS: 从人类课程中细化合成数学问题
自然语言处理和大型语言模型在教育和指导方法领域取得了快速进展,特别在解决数学问题的应用方面,其中 MAmmoTH-13B 表现出了最高的能力水平,成为解决 NCERT 数学问题的可靠基准。
Apr, 2024
我们提出了 CHAMP 数据集,该数据集包含高中数学竞赛问题,注释了概念和提示,使我们能够探索额外信息对模型性能的影响,发现模型生成的解决方案通常通过错误的推理步骤最终得出正确答案,并且大多数模型在验证这些解决方案时遇到困难。
Jan, 2024
数学推理是评估人类智能基本认知能力的基石。该研究调查了大型语言模型在解决数学问题方面的真正进展、障碍、数学问题类型和相关数据集、解决数学问题的 LLM 技术范围、影响 LLMs 解决数学问题的因素和问题,并提供了这一快速发展领域中的现状、成就和未来挑战的整体观点。
Jan, 2024
通过自我评审流程,大型语言模型(LLMs)能够在保持语言能力的同时提升数学问题解决能力,从而有效增强 LLMs 在实际应用中的性能。
Apr, 2024
本研究介绍了 ConceptMath,它是一个双语(英文和中文)的细粒度基准,用于评估大型语言模型的概念级数学推理能力。与评估一般数学推理平均准确率的传统基准不同,ConceptMath 通过将数学问题按照数学概念的层次进行系统组织,从而可以用概念级准确率评估数学推理能力的不同细粒度。在基于我们的 ConceptMath 的基础上,我们评估了广泛范围的大型语言模型,并观察到现有的大型语言模型尽管在传统基准上具有高平均准确率,但在不同数学概念上存在显著的性能差异,甚至在最基本的概念上可能出现灾难性失误。此外,我们还介绍了一种高效的微调策略,以提高现有大型语言模型的弱点。最后,我们希望 ConceptMath 能够指导开发人员了解其模型的细粒度数学能力,并促进基础模型的进一步发展。
Feb, 2024
为了全面评估大型语言模型(LLMs)的数学推理能力,我们需要精心策划评估数据集,涵盖不同难度级别的各种数学概念和问题。为此,我们在本文中提出了 FineMath,一个用于评估中文 LLMs 的细粒度数学评估基准数据集。FineMath 涵盖了小学数学教学的主要数学概念,并进一步划分为 17 类数学应用问题,从而能够深入分析 LLMs 的数学推理能力。所有 17 类数学应用问题都根据解决这些问题所需的推理步骤数量进行手动注释其难度级别。我们在广泛的 LLMs 上对 FineMath 进行了大量实验,并发现中文 LLMs 的数学推理能力仍有相当大的提升空间。我们还对先前被忽视的评估过程和方法进行了深入分析。这两个因素显着影响了模型结果和我们对其数学推理能力的理解。该数据集将很快公开发布。
Mar, 2024
通过对高质量合成数据的微调,本文通过提出的算术难题问题展示出大型语言模型在多步推理任务上的出色表现,并通过开源的 3B 模型在三个不同的测试数据集上实验结果表明,这种模型不仅在域内数据集上能够达到 0.44 的零样本一次通过率 @1,而且还在域外数据集上展现出一定的泛化能力,对于扩展数字范围和算术难题问题的组合组件分别设计了两个域外数据集,在这两个更难的任务上,经过微调的模型展示出令人鼓舞的表现,零样本一次通过率 @1 分别为 0.33 和 0.35。
Jun, 2024
通过将大型语言模型与外部符号求解器相结合,我们提出了一种能够将单词问题逐步规范化为一组变量和方程的方法,并使用符号求解器解决问题,相较于 PAL 在解决代数类问题上性能提升了 20%。
Apr, 2023
大型语言模型在数学推理方面研究了系统组合性,通过引入精心设计的逻辑漏洞陷阱构建了一个新的数据集 MathTrap,发现虽然大型语言模型具备所需知识的两个组成部分,但它们不会自发地组合起来处理这些新问题,通过自然语言提示、少示范演示和微调等多种方法可以减轻这种缺陷,但系统的组合性仍然是大型语言模型面临的一个未解决挑战。
May, 2024