本文综述了过去十年在数学推理和深度学习交叉领域中的关键任务、数据集和方法,评估了现有的基准测试和方法,并讨论了该领域的未来研究方向。
Dec, 2022
本文展示神经网络在数学方面的应用,如符号积分和求解微分方程。提出了一套数学问题表示法和生成大规模数据集进行序列到序列模型训练的方法,并获得了超越 Matlab 或 Mathematica 等商业计算机代数系统的结果。
Dec, 2019
该研究针对数学领域中的推理、学习、应用规则等独特挑战,提出了一个数学问题套件的任务,用于测试和评估神经架构等系统的性能、能力和失效模式。通过生成数据并运用序列到序列的最强模型,可以从不同角度评估模型在数学问题解决和知识推广方面的能力。
Apr, 2019
本文提出一种基于通用 Transformer 的深度学习模型,通过发现高效的算数程序,利用外部的网格状记忆进行多位数的加法计算,并且发掘了人类类似的计算策略,如位值对齐。
Jul, 2022
该研究通过构建可训练模块的编程 - 解释器框架,增加加减法模块,弥补了神经模块网络在多类型、数字推理方面的能力,实验证明该方法提高了 F1 值,表现优于现有模型。
Oct, 2022
我们描述了深度学习数学分析的新领域,涉及到超参数神经网络的普适性,深度对于网络的作用,感知问题的缺失,问题优化性能的成功和架构的各个方面对学习任务的影响,并提供了现代方法的概述和详细的主要思想。
May, 2021
提出一种信息论干预的新型框架,以克服向语言模型注入非语言技能时发生的语言技能灾难性遗忘,从而使语言模型在保留语言能力的同时也具备数学推理的能力。
Nov, 2022
本研究使用多层算术符号推理的受控数据集,系统地检查了最近发布的预训练 seq2seq 模型,旨在探讨最新的神经模型如何捕捉符号推理的组合性。我们引入了一个 “组合性技能树”,定义了组合复杂性的层级水平以及系统性,生产力和可替代性等组合性维度。实验表明,模型最难以处理系统性,甚至在相对简单的组合中也表现不佳。即使通过训练模型的中间推理步骤,也无法缓解这种困难。
Feb, 2023
本文综述了近期深度神经网络在识别系统方面表现出的很高的性能,以及为数不多的数学解释其成功的理由,如全局最优性、几何稳定性和表示学习的不变性。
Dec, 2017
本研究论文从近十年开始,对自动解决数学单词问题的算法进行了批判性评估和未来研究规划,主要关键词为数学单词问题、算法、深度学习模型、数据集设计和研究。
May, 2022