本文介绍了一种无监督学习的方法来发现数学方程的语义表示,称之为方程嵌入。该方法使用周围单词的表示来发现方程的好的表示方法,并用于分析四个计算机科学领域的科学文章中的 98.5k 个方程。结果表明,方程嵌入提供了更好的模型,并能够捕捉方程与单词之间的语义相似性。
Mar, 2018
本文提出了一个神经网络模型,基于编码器 - 解码器框架,利用自然语言理解桥接语义世界和符号世界,自动解决数学应用问题,并在 Math23K 数据集上验证模型的有效性。
Nov, 2018
本文提出了一种名为 ctx-DocNADE 的新颖的神经自回归主题模型,将 TM 和 LM 的两种学习词出现意义的学习范例组合在一起,通过嵌入词静态信息的输入,显著改善了小语料库和短文本中的词 - 主题映射,并在不同领域的 6 个长文本和 8 个短文本数据集上展示出了优越的泛化能力、可解释性和适用性。
Oct, 2018
本文探讨了从复杂的数学问题中生成简洁的数学标题,提出了一种新的总结模型(MathSum),它使用指针机制和多头注意力机制增强数学表示,并在现实数据集中取得了显着的优越性能。
Nov, 2019
本文讨论了在单个句子中识别和理解数学关系表示的问题,提出了方程式解析的问题,并介绍了一种高效的算法来解析文本到射影方程。我们的系统利用数学表达式的高精度词典和一系列的结构化预测器,在 70% 的情况下可以生成正确的方程,在 60% 的时间里,还可以识别正确的名词短语和变量映射,显著优于基线。我们还发布了一个新的注释数据集以供任务评估。
Sep, 2016
通过自然语言提示指导大型语言模型自动从数据中挖掘执法方程的新框架降低了学习和应用等式发现技术的难度,显示了大型语言模型在知识发现领域的应用潜力。
May, 2024
分析了语境对公式信息转换的影响,提出了一种考虑语境的新方法,并提供了可用于公式信息提取训练等的基准数据集。
Apr, 2018
我们提出了一个名为 TCNLM 的话题组成神经语言模型,它通过神经话题模型来学习文档的全局语义连贯性,并通过混合专家语言模型来学习本地单词顺序结构,同时使用矩阵分解方法使模型更高效地训练,可生成有意义的话题和句子。
Dec, 2017
该研究介绍了一种将主题模型与语言模型相结合的方法,扩展了语言理解的范围,通过主题进行了文档级上下文的抽取,并提出了一种可解释的主题表征,将主题语义加入到语言模型中。通过建模每个句子中的话题,保留了句子与文档主题关联,提出了一种既有隐藏话题,同时又有可解释话题的神经组合语言模型。该模型在多项任务中展现了显著提升的能力,包括语言建模、词义消岐、文档分类、检索和文本生成。
Jun, 2020
本文介绍了通过自然语言文本解释两个科技文档之间关系的任务,提出了一个新的数据集和模型,探索使用科学信息提取系统的密集表示对提高解释性能的影响,并在自动和人类评估中证明了该模型的可行性和挑战。
Feb, 2020