一个好的符号描述阅读数据集的特征
该研究探讨了自动解决数学问题的挑战,包括语言和逻辑之间的语义鸿沟,综述了将人工智能用于代数和几何问题的主要技术及其性能,并探讨未来的研究方向。
Aug, 2018
提出了一种新的预训练模型MathBERT,该模型通过联合训练数学公式及其上下文信息,并根据操作树中提取的掩码公式子结构进行设计,以捕捉公式的语义结构特征,同时在数学信息检索、公式主题分类和公式标题生成等三个任务中取得了显著的超出现有方法的表现
May, 2021
本研究介绍了 SymDef 数据集和一种针对数学符号的定义提取方法,将其应用于多种学术论文中,成功地在提取复杂定义词方面超过了 RoBERTa 和其他IE基线系统。
May, 2023
我们开发了一个原型系统 Parmesan,用于在上下文中搜索和定义数学概念,以帮助不熟悉数学概念的研究人员,该系统依赖于自然语言处理组件,包括概念提取、关系提取、定义提取和实体链接技术,并提供了两个修订后的数学语料库。
Jul, 2023
我们使用ChatGPT等生成性大型语言模型从数学文本中提取数学概念,为自动术语提取和数学文本处理领域以及LLM研究作出贡献。我们的研究目标是在数学领域中通过自动提取术语(关键词)来建立模型,使用的语料库是在线期刊《Theory and Applications of Categories》的755个摘要,快照来自2020年左右。我们的研究与之前的工作不同之处在于:(1)更彻底分析了数学术语提取的困难之处;(2)关注了人工标注者之间的不一致性;(3)提供了一套人机标注者都可以使用的指南,以规范化提取过程;(4)引入了一种新的注释工具,帮助人类进行自动术语提取,适用于任何数学领域甚至数学之外的领域;(5)使用ChatGPT的提示作为提取过程的一部分,并提出了最佳实践;(6)提出了ChatGPT是否能够作为与人类专家在同一级别上的注释者的问题。我们的总体发现是,数学术语提取是一个有趣的领域,LLM的参与可能对该领域有所裨益,但目前LLM本身无法超过人类的表现水平。
Aug, 2023
我们考虑从学术论文的文本中自动识别数学定义中的明确术语。我们将问题作为(a)使用微调的预训练变压器进行令牌级分类任务,以及(b)使用通用大型语言模型(GPT)进行问答任务来解决。我们还提出了一种基于规则的方法,通过从论文的LATEX源代码构建一个带标签的数据集。实验结果表明,使用最近(和昂贵的)GPT 4或在我们的任务上进行微调的较简单的预训练模型均可以达到高精度和召回率的水平。
Nov, 2023
通过对四个金融表问答数据集进行广泛实验,这项研究探讨了大型语言模型在数学推理、结构化表格和非结构化文本融合方面的能力。研究集中分析了模型对表格复杂度的敏感性以及随着算术推理步骤增加的性能变化。结果揭示了大型语言模型在处理半结构化表格中复杂数学场景时的能力和限制,并提出了一种针对半结构化文档的新型提示技术,其性能与其它基准线相媲美或超越,同时提供对大型语言模型在此任务中的细致理解。
Feb, 2024
通过使用存在的公式驱动的 FormulaQA 数据集,得出了使用检索增强的 LLMs 模型结合外部公式数据库时对现有模型具有重要改进潜力的实证结果。
Feb, 2024
本文旨在提供可用于研究数学语言的不同背景下的带有注释的文献资料,并使用神经解析模型和人工干预预处理这些资料,以提供词性标签、词形还原和依赖树。我们评估了几种自然语言处理模型,在从文献资料中提取的基准数据上测试它们的性能,并展示它们在数学领域中的适应性和对于探索数学语言的有用性。虽然我们提供了学习助手以在特定环境中访问这些资料内容,进一步的工作仍然需要进行以使模型更好地适应数学,并提供更有效的学习助手以及将自然语言处理方法应用于不同的数学领域。
Jun, 2024