本文介绍了一系列基于替换和释义的数据增广技术,通过将现有数学问题数据集的规模提高五倍,我们在三种全球领先的数学问题求解器上进行了广泛的实验。结果显示,所提出的方法可以提高现有解算器的泛化性和鲁棒性,并在基准数据集上平均使结果显着提高了五个百分点。此外,经数据增广训练的解算器在挑战测试集上表现得更好,并且仅基于表层线索不能较好地解决这一问题。
Apr, 2022
通过修改问题的文本和方程式,例如使用同义词替换、基于规则的问题替换和基于规则的问题翻转,提出几种方法进行数据增强,从而为数学问题求解程序提供更多样化的训练集,最终提高其解决各种数学问题的能力。本研究引入了一种新的上下文学习增强方法,采用 Llama-7b 语言模型,通过基于指令的提示对数学问题进行改述。在 9 个基准模型上进行了性能评估,结果显示增强方法优于基准模型。此外,以各种增强方法生成的示例的串联进一步提高了性能。
Apr, 2024
该论文提出了一种用于解决数学问题的框架,该框架基于生成问题文本的语言变体,利用 DeBERTa 编码器构建解决方案表达式,通过对每个变体问题进行求解并选出获得大多数选票的预测表达式来改善数学推理和模型的鲁棒性。
Jun, 2023
本研究提出了一种通过神经网络模型从常识知识图谱和方程式中生成多样化数学单词问题的方法,并在教育评估方面表现出优越性,其中自规划模块实现了方程和常识知识信息的自动融合。
Oct, 2020
该研究提出了一种基于编码器 - 解码器的模型,完全利用问题文本并保留逐步的交换律,以产生无论数量的排列方式如何都具有不变性的表达式嵌入,并进一步对问题文本进行编码以指导解码过程,可以提高数学问题自动求解程序的性能。
Feb, 2023
本研究提出两种方法生成对抗性攻击,以评估现有的数学单词问题求解器的鲁棒性,并发现现有的数学单词问题求解器对问题文本中的语言变化非常敏感。
Sep, 2021
本文提出了一种新的句法感知数据增强策略,使用输入句子的依存句法树来确定每个句子中单词的选择概率,以有效增强神经机器翻译的翻译性能。实验表明,所提出的数据增强方法可显著提高基于句子独立的方法的翻译性能。
Apr, 2020
本研究提出了一种新的数学词问题求解器训练框架,通过引入解决方案缓冲区和解决方案鉴别器,设计了一种能够鼓励训练数据多样性的缓冲区,并控制缓冲区解决方案的质量,从而有效地提高了各种 Seq2Seq MWP 求解器的性能。
Dec, 2022
本文介绍了一种应用于低资源任务导向语义解析的新方法,其结合了现实场景中可能出现的多个限制条件,包括缺少相关领域的相似数据集 / 模型,无法直接从语法中采样有用的逻辑形式以及对未标记的自然语言要求保密性等。我们的目标是通过用户交互收集一些话语来改进低资源语义解析器。在这个高度具有挑战性但现实的设置中,我们探讨了涉及生成一组与逻辑形式相对应的结构化规范话语、模拟相应自然语言并过滤结果对的数据增强方法。我们发现,这种方法在我们的严格设置下也是有效的:在复杂的 SMCalFlow 日历数据集(Andreas et al.,2020)的低资源情况下,我们观察到与非数据增强基线相比,在前 1 个匹配中有 33% 的相对改进。
May, 2022
本文提出了一种新颖的神经机器翻译数据增强方法,即通过语言模型提供的词汇分布来增强句子中的特定单词,从而比之前的增强方法更好地捕捉上下文语义信息。实验结果表明该方法在小规模和大规模机器翻译数据集上都优于强基线。
May, 2019