从零到英雄:用极其复杂的数学说服
本文探讨了从复杂的数学问题中生成简洁的数学标题,提出了一种新的总结模型(MathSum),它使用指针机制和多头注意力机制增强数学表示,并在现实数据集中取得了显着的优越性能。
Nov, 2019
通过计算机算法发现大量连分数公式,并揭示了保守矩阵场这一新颖数学结构,统一了现有的数学公式,生成了无穷多个新公式,并引发了不同数学常数之间的意想不到的联系,同时可以用于证明无理性定理。实验证明了大规模计算方法在攻克长期悬而未决的问题并发现不同科学领域之间的意外联系中的潜力。
Aug, 2023
该研究通过神经网络在预训练文本的基础上微调代码,解决了人类水平的数学问题,进行了程序综合,并生成了新问题。
Dec, 2021
该研究旨在研究 Transformers 在多步骤的代数任务中的表现。作者提出了一个合成的多项式数据集生成算法,通过变化系数配置、输入表示、证明粒度和广泛的超参数调整,揭示了 Transformers 在数值乘法方面的困难,并针对此问题探索了课程学习和符号计算器两种方法,两种方法都比基准模型效果显著提升。
Apr, 2021
本文提出一种基于通用 Transformer 的深度学习模型,通过发现高效的算数程序,利用外部的网格状记忆进行多位数的加法计算,并且发掘了人类类似的计算策略,如位值对齐。
Jul, 2022
本论文的主要研究方向是解决神经机器翻译数学公式的问题,特别是涉及到模糊表示语言和明确内容语言之间的翻译,论文采用卷积序列到序列网络来翻译 LaTeX 和 Mathematica,达到了 95.1% 和 90.7% 的准确匹配。
May, 2023
介绍了一种新的 MATH 数据集,其中包含 12500 个具有挑战性的竞赛数学问题,每个问题都有全面的解决方案,可以用于教模型生成答案推导和解释。尽管研究者不断增加 Transformer 模型的预算和参数总数,但在 MATH 的准确性仍然相对较低,因此未来的研究可能需要更广泛的算法进步。
Mar, 2021
使用数据生成方法和符号代数,对变换器编码器的数学推理和泛化进行了 200,000 个例子的超大规模实验,并回答了变换器是否可以学习应用符号规则并推广到超出分布范围的例子。结果表明,扰动严重影响性能,并且可以将 F1 分数降至低于 17%,这表明推理主要由与数学运算的深层理解无关的表层模式所支配。
May, 2023
我们提出了一种数据为中心的方法来克服印刷数学表达式识别中的问题,并呈现了令人信服的实验结果:我们的主要贡献是增强 LaTeX 规范化以将任何 LaTeX 数学表达式映射到一个规范形式。基于这个过程,我们开发了一个改进版的基准数据集 im2latex-100k,包含 30 种字体而不是一种。其次,我们引入了实际论文中提取的数学表达式数据集 realFormula。第三,我们开发了一个基于卷积视觉变换器的数学表达式识别模型 MathNet,在所有四个测试集(im2latex-100k,im2latexv2,realFormula 和 InftyMDB-1)上表现出优越的结果,比之前的最先进技术高出高达 88.3%。
Apr, 2024
本文提出了一种名为 “重写” 的文本生成方法,可以在不改变潜在故事的情况下更改现有人工撰写叙述的主题,我们将该方法应用于数学问题中,可以将所有作业快速转换为学生最喜爱的电影主题,而不改变教授的数学概念,并通过实验表明,该方法在主题一致性和语法、语义方面性能表现优异,同时释放了一个新的数据集。
Oct, 2016