研究表明,使用 ON-LSTM 等模型进行自然语言处理,可以在没有人为注释的情况下学习组成句法分析,相对最佳状态的性能表现较好,但在解析内部结构更复杂的名词短语时存在困难,并可能高估在动词之前分割点的高度。我们推测采用不同于单向语言建模的训练任务可能有助于解决这两个问题。
Oct, 2020
通过复制两种无监督学习句子语法结构的神经网络,本研究发现其中只有一种模型在对句子进行分类上表现更出色,但其分析策略随机性大、分析结果相较于常见的 Penn Treebank 结构更为浅显,并且与任何作者所知的语义或句法形式学不上相似。
Sep, 2017
本研究提出一种基于 Shift-Reduce Parsing 的潜在树学习模型,在下游任务上具有竞争性能表现和重要诱导树,同时使用图表模型进行对比分析。
Jun, 2018
该论文介绍了一种利用二进制语法树和 Tree-LSTM 组成的神经网络,可在自然语言图表解析器的帮助下同时优化组成函数和解析器,进而实现无监督的树形 RNN,并在文本蕴涵任务和反向字典任务中表现优越。
May, 2017
该研究通过分析语法结构提出了基于最小二乘法的重要性评分方法,以实现对训练的分类模型进行解释,并建立了这些重要性评分的公理化特征,发展了一种合理的检测和量化句子中单词之间交互的方法,证明了该方法在多种语言模型的可解释性和诊断中的作用。
Feb, 2019
该研究针对最近基于潜在树学习的神经网络模型探索,探索在非解析任务下使用解析值潜变量训练模型,用于发现可解释的树形结构,并成功在语言建模和成分句法分析领域展示了潜在树学习的实用性。
Aug, 2018
该论文介绍了 LogicInference 数据集,主要用来评估模型在逻辑推理方面的能力,该数据集涵盖了命题逻辑和部分一阶逻辑,并用半正式的逻辑符号和自然语言表示。同时,论文还对多种机器学习模型在该数据集上的初步实验结果进行了报告,建立了一个基础基线。
Mar, 2022
我们利用新的参数化和置换预测方法,提出了一种将语义解析理解为两步处理,并通过规则化线性规划求解器来预测排列,进而取得了比预训练 seq2seq 模型和之前的工作更好的性能,实现了在深度递归上的高准确度的泛化。
May, 2023
本篇研究使用神经网络模型来实现自然语言文本到一阶逻辑表达式的语义解析,在此基础上提出了一种改进的编码 - 解码模型,能够更加准确地生成一阶逻辑公式,并通过大规模数据集的评估证明了这种方法的有效性和可扩展性。最终将研究代码和数据集公开,为进一步的基于逻辑的 NLP 相关研究提供便利。
Feb, 2020
本研究展示了如何通过部分语音序列对一个新语言的基本语序事实进行预测,并且通过大量的合成语言训练数据,将这个通常被认为是无监督学习的问题转化成了有监督学习,从而成功地识别了一个语言的 POS 序列的表面特征(手工特征或神经特征)与其更深层次的结构(潜在树)相关性。该系统在该任务上表现出色,比语法归纳基线高出一个很大的优势。
Oct, 2017