Calc-CMU 在 SemEval-2024 任务 7 中的表现:预计算 —— 学习使用计算器提升语言模型的数算能力
提出了一种新的推理感知预训练方法,使用对比学习将另一种数字表示形式纳入预训练模型,通过基于推理的数字预测任务训练来提高其数值推理能力,实验结果表明该方法在需要数值推理的任务上能够提高准确性,并且人类评估显示该方法能够提高数据集上的事实正确性。
May, 2022
通过在大量数据集上进行多任务训练,我们展示了数值推理可以注入到预训练的语言模型中,使性能得到显著提高。在一个简单通用的 encoder-decoder 架构上训练,我们的模型 GenBERT 在 DROP 数据集上的性能可以达到与同等规模的最先进模型相媲美,同时在数学单词问题数据集上保持高性能,这种方法为延展技能到大型预训练语言模型提供了一般的解决方案。
Apr, 2020
提出一种信息论干预的新型框架,以克服向语言模型注入非语言技能时发生的语言技能灾难性遗忘,从而使语言模型在保留语言能力的同时也具备数学推理的能力。
Nov, 2022
该研究调查了语言模型在计算预测和问题解决能力方面的应用,以及其在进行算术计算和内部信息处理方面的推广能力。通过使用二进制加法和乘法作为测试样本,该研究成功地训练了一个轻量级语言模型,并进行了一系列实验以探究其外推能力和内部信息处理过程。研究结果支持了该假设,即语言模型在适当的内部表示映射后,计算发生在数值空间中,其工作类似于一个编码 - 回归 - 解码机器。
Aug, 2023
介绍了基于 BERT 的阅读理解模型,可以通过简单的程序执行轻量级的数值推理,并在具有挑战性的 Discrete Reasoning Over Passages 数据集上,通过添加浅层程序,实现了 33%的绝对改进。模型可以在数学词问题环境中学习预测新的操作(Roy 和 Roth,2015)。
Aug, 2019
提出了一种新的预训练模型 MathBERT,该模型通过联合训练数学公式及其上下文信息,并根据操作树中提取的掩码公式子结构进行设计,以捕捉公式的语义结构特征,同时在数学信息检索、公式主题分类和公式标题生成等三个任务中取得了显著的超出现有方法的表现
May, 2021
本文研究如何通过分解数字来提高 Transformer 语言模型执行算术运算的准确性,称之为 “Calculon”,并将其与 GPT-3 在加减乘三个运算任务上进行了对比,结果表明在五位数加法任务上,Calculon 的准确率提高了 63%。
Apr, 2023
探索用语言模型建模数字的不同策略,提出使用连续概率密度函数来建模开放词汇中数字的新型神经架构,并在临床和科学数据集上进行评估表明使用分层模型可显著提高困惑度指标,连续概率密度函数模型相较于其他策略可分别将平均绝对百分比误差降低 18%和 54%。
May, 2018
本研究的目的是为了提高应用自然语言处理在数学教育中的效果,我们提出了 MathBERT,一种专门针对数学文本域的预训练模型。MathBERT 在基于数学语料库上的三个自然语言处理任务中表现出优异的性能,我们还采用了一种数学特定的词汇表来进一步提高模型的性能。我们公开了 MathBERT 的模型参数以供公众使用。
Jun, 2021
在不预训练的情况下,通过对训练数据进行简单的格式更改并使用包含中间步骤结果的思维链式数据进行训练,即便在完全缺乏预训练的情况下,也可以显著提高算术能力的准确性、样本复杂性和收敛速度。
Jul, 2023