本文基于 BERT 开发了几种 BERT-based 时间依赖句法分析器,表明 BERT 显著提高了时间依赖分析的性能。并对于深度上下文化语言模型有哪些帮助及不足进行了详细分析。
Apr, 2020
本文提出了一种基于概率领域知识构建分布式约束的框架,并且通过 Lagrangian Relaxation 解决约束的推理问题,用于端到端的事件时间关系提取任务,实验结果显示我们的框架能够在新闻和临床领域的两个广泛使用的数据集上显著地提高基线的神经网络模型。
Sep, 2020
利用新闻话语建模文档级时间结构构建时间依赖图。通过新闻话语的功能角色可恢复文档的时间结构,利用知识蒸馏技术,有效识别时间上相关的远距离事件和时间表达式。
Oct, 2022
本研究提出了一种新的语义框架来建模时间关系和事件持续时间,构建了迄今为止最大的时间关系数据集,并利用该数据集训练了预测细粒度时间关系和事件持续时间的模型,表现出强大的实验结果,并展示了预测分类关系的迁移学习方法的功效。
Feb, 2019
本文提出了一种新的深度结构化学习框架,用于事件时间关系提取,其结构包括递归神经网络和结构化支持向量机,通过联合训练两部分模型,采用预训练上下文嵌入,证明了提出的模型的性能明显优于现有的方法,并提供了详尽的削减研究。
Sep, 2019
本文提出了一种用于在句内事件之间进行时间关系分类的序列模型。我们的方法首先提取一个上下文词序列,该词序列与两个事件提及之间的依赖路径很好地对齐,并使用生成的词序列对应的词性标记序列和依赖关系序列作为输入,提供给双向循环神经网络 (LSTM) 模型。神经网络学习组成句法和语义上下文表征,以预测它们之间的时间关系。该方法在 TimeBank 语料库上的评估表明,顺序建模能够准确地识别事件之间的时间关系,并且胜过了以前基于特征的模型。
Jul, 2017
本文提出使用基于 LSTM 简单统一的模型从文本中恢复不同类型的时间关系,通过依存路径提供输入,同时包括句内、句间和文档创作时间关系。运用双重检查技术,在分类中颠倒实体对,提高正例召回率并减少相反类之间的错误分类。最后,使用有效的剪枝算法在全局解决冲突。该方法在 QA-TempEval(SemEval2015 任务 5)上表现优于现有的方法。
Mar, 2017
本文介绍了一种新的语义解析设置,使用户能够使用自然语言问题和图形用户界面内的操作查询系统。我们设计了一个基于 LSTM 的编码器 - 解码器架构,通过复制机制和多级输入和先前输出的注意力来建模上下文依赖性。使用策略梯度训练该架构可进一步提高性能,在人工数据上达到了 88.7% 的序列级准确度,在实际数据上达到了 74.8%。
May, 2019
通过结构化感知机训练和使用大量自动解析的句子来学习神经网络表示,我们的解析器在 Penn Treebank 数据集上达到了 94.26%的未标记和 92.41%的标记附加精度,是迄今为止在 Stanford Dependencies 上最佳的精度,并提供深入的剖析分析以确定模型的哪些方面提供了最大的准确性增益。
Jun, 2015
本文提出了一种基于神经网络的解析器 - 排序器系统用于弱监督语义解析,通过对表征的推理公式使用线索来生成候选的树结构逻辑形式,并对其进行排序,以此平衡正确执行和掌握语义的两个目标,进一步使用神经编码的词表注入领域知识,并在三个 Freebase 数据集上进行实验,获得了达到最先进水平的效果.
Aug, 2018