该论文介绍了 InScript(Narrative Texts Instantiating Script structure)语料库,它包含 1000 个围绕 10 个不同情景的故事。这个语料库为研究自然语言处理中脚本知识的作用提供了独特的资源。
Mar, 2017
使用基于神经网络的合奏模型生成事件导向的自动故事情节,比基线方法生成的故事更连贯和可信。
Sep, 2019
本文提出了一种基于事件中心预训练的生成式方法,其使用预先训练的语言模型 Fine-Tune 并通过对序列可能性的预测进行预测,从而软建模事件之间的关联。
Dec, 2022
本文基于叙述文本中的双重时间特征,提出了一种新颖的方法来获取跨句子的丰富的事件先后顺序知识。通过探索叙述学原则和构建弱监督学习,从三个大型文本语料库中识别了 287k 个叙述段落,并从中提取了丰富的事件时间知识,这种事件知识对于改善时间关系分类任务很有用,并在叙述 Cloze 任务上优于最近几个神经网络模型。
May, 2018
该论文提出了基于隐马尔可夫模型的故事脚本形式化框架,支持强大的推理和学习算法,有效预测缺失事件,优于以往聚类模型。
Sep, 2018
本论文提出一种利用外部常识知识的方法,增强文本中提取的事件表示的有效性,实验结果表明该方法在事件相关任务中表现良好,如事件相似度计算、脚本事件预测和股票市场预测等方面得到了显著优化。
本文提出了一个基于 Transformer 模型的 MCPredictor,将深度的事件级别信息和剧本级别信息整合起来,实现对剧本事件的预测,实验结果在广泛使用的《纽约时报》语料库上证明了所提出的模型的有效性和优越性。
Sep, 2021
本文提出了一种基于事件的编码框架(REP)来预测脚本事件,该框架通过提取具有丰富事件描述的信息,包括动词的意义,额外的语义角色和参与者类型,并使用基于 Transformer 的事件编码器灵活地处理任意数量的参数。通过在广泛使用的 Gigaword 语料库上进行的实验结果表明,该框架是有效的。
该研究比较了使用 NLP 流程产生的结构化动词和论点事件和最近的基于递归神经网络的模型,发现后者在预测文档中缺失事件方面与前者大致相当。
Apr, 2016
本文探讨了如何从文本中挖掘事件和附带信息,主要应用了机器学习技术进行事件检测和摘要,并讨论了在医学和 Twitter 上运用的应用和未来挑战
Jan, 2016