- 从零到英雄:用极其复杂的数学说服
提出一种名为 zero2hero 的算法,基于大型语言模型,该算法使得包含了简单数学的 LaTeX 文档的每个公式都变得极为复杂,从而提高论文的复杂度,提高风评和被接受的概率。
- 基于机器学习的精简前提选择
我们设计了一个基于机器学习的工具,用于 Lean 证明助手,可以为用户正在证明的定理提供建议,它是通过在线训练自定义版本的随机森林模型,并利用 Lean 4 的元编程特性直接实现,可以通过 suggest_premises 策略在编辑器中与 - 神经网络能做算术吗?对当今深度学习模型基本数学技能的调查
本文回顾了近年来关于深度学习在数学领域的研究,认为当前即使是最先进的深度学习模型在面对简单的数学和算术任务时也表现出较大局限性。
- 第 11 届定理证明教育软件组件国际研讨会
本文介绍了 ThEdu 系列以及本卷在 STEM 教育中应用定理证明技术的自动演绎和应用于教育软件的方法和工具在教育方面的应用。
- 测量推断和规则理解能力的逻辑任务
通过提出逻辑任务的概念,该研究从更高的角度说明了近期大规模模型在算术推理中的局限性,并探讨了解决逻辑任务的方向和需要具备的系统需求。
- 多视角推理:一种用于数学题的一致性对比学习
提出了一种多视角一致性对比学习方法,用于数学语义到方程的映射,在多粒度上对两种推理视角进行兼容,提高全局生成和精确推理。
- 深度 Q 学习在电梯优化中的应用及模拟结果
该论文提出了一种方法来结合编程和数学以优化电梯等待时间,基于模拟的用户数据,开发了一个 naive 模型和 Deep Q Learning 模型,研究使用 Markov 决策过程模拟电梯调度但未能 adequately model high - 关于信息和证明的关系
本文提出了一种基于证明的信息量度量方法,该方法以涉及待证公式的可能证明集合(即 “知识库”)定义概率度量,使用熵的方法计算信息量。
- 利用人工神经网络自动评分图形开放性答案
本研究探讨基于卷积神经网络和前馈神经网络的自动化打分方法在国际数学和科学考试中将学生的绘画或图像回答分类的准确性。研究发现,相对于前馈神经网络,卷积神经网络能够更加精确地分类图像响应,并且可以取代人工评分,提高成绩评分的有效性和可比性。
- Recall and Learn: 数学问题记忆增强求解器
本文介绍了一种人类模拟学习的方法,利用记忆模块、表征模块、类比模块和推理模块来解决数学文字题,实验结果表明该算法比其他现有算法表现更好。
- ICLRMiniF2F:面向正式奥林匹克数学的跨系统基准测试
miniF2F 是一个 Olympiad 级别的数学问题数据集,用于在神经定理证明中提供统一的跨系统基准。使用 GPT-f 作为神经定理证明的基线调用 miniF2F,并提供了性能分析。
- MathBERT:用于数学教育中通用自然语言处理任务的预训练语言模型
本研究的目的是为了提高应用自然语言处理在数学教育中的效果,我们提出了 MathBERT,一种专门针对数学文本域的预训练模型。MathBERT 在基于数学语料库上的三个自然语言处理任务中表现出优异的性能,我们还采用了一种数学特定的词汇表来进一 - SIGIR机器为什么无法学习数学
本文探讨了在 STEM 类学术文献检索中,应用机器学习的一些挑战,以及目前普遍使用的文本 embedding 技术对于数学文档的不足,同时研究出一些让计算机更好地理解和学习数学的方面。
- 使用 Transformer 关注数学语言
使用变压器架构生成、评估和训练数学表达式,将其作为字符级序列转换任务进行分析,建立在关注机制上的编码器和解码器上。三个模型分别被训练在数学符号变量和表达式的理解和评估上,最终达到了测试准确率高达 76.1%、78.8% 和 84.9%。
- 神经网络翻译非正式数学语言为正式数学语言的初步实验
该研究采用深度神经网络进行数学形式化的自动化,使用机器翻译模型将非正式的 LaTeX 写的 Mizar 文本转化成正式的 Mizar 语言,并进行了多次实验以测试其可行性。结果表明,通过人工神经网络进行数学形式化是一种有前途的方法。
- 深度学习所需的矩阵微积分
本文介绍用于理解深度神经网络训练所需的全部矩阵微积分,旨在帮助已掌握神经网络基础知识的读者深入理解其背后的数学,在需要时提供数学知识的相关链接以及总结关键矩阵微积分规则和术语的参考文献。
- ACL映射为声明性知识以解决数学应用题
本文探讨了将自然语言描述的概念转换成数学表达式的声明性规则,并提出了一种将此类声明性知识纳入解决数学问题的框架。通过学习如何选择与解决方案表达式的每个操作相关的声明性知识,实现了将算术单词问题文本映射到数学表达式,同时支持答案表达式的可解释 - 低自相关二元序列
本文介绍了一个在通信工程、数学和计算机科学中应用的二进制序列问题,其应用还涉及到金融统计物理中的 Bernasconi 模型。本文回顾了最近的算法,并提出了一种新算法,该算法可以在时间 Θ(N×1.73^N) 内找到长度为 N 的最优序列。 - 构建 21 世纪的全球数学研究图书馆
本文讨论了如何发展 21 世纪的全球数学图书馆,提出了利用机器学习和社区协作的方式,将全球数学文献中的信息和知识以链接开放数据的形式更好地提供给研究人员,以此建立数学信息的集成式系统。
- 主成分分析教程
探究主成分分析的背后真相及数学原理,为所有级别的读者提供更好的理解和应用此技术的时间、方法和动机。