神经元全事件核指代消解
我们介绍了一种新颖高效的事件共指消解方法,将事件共指消解作为图重构任务,通过将深度语义嵌入与结构共指链知识相结合,创建了一系列参数高效的图自编码器模型(GAE)。我们的方法在荷兰的一个大型事件共指语料库上,在综合得分、效率和训练速度方面明显优于经典的提及对方法。此外,我们展示了我们的模型在更难的共指链接分类和低数据环境中相对于基于变换器的提及对共指算法更具鲁棒性。
Oct, 2023
提出了一种融合视觉和文本线性映射的多模态跨文档事件共指解析方法,通过对事件中心图像的集成,对核心指称进行融合模型、线性映射和集合方法进行处理,实现了对事件共指的跨模态线性映射,为核心指称解析领域提供了多模态信息的实用性和需要更多多模态资源的提示。
Apr, 2024
本文提出了一种基于神经网络结构的跨文档匹配方法,能够有效地进行实体和事件的引用关系识别,其中考虑了实体和事件的上下文以及谓词 - 参数结构等因素。该方法在 ECB + 语料库上的表现优于之前的状态 - 最优事件 - coreference 模型,并提供了该语料库上的第一个实体 - coreference 结果。
Jun, 2019
事件指代消解的提问式模板方法(CorefPrompt)在单一模板中实现了事件建模和指代消解,并通过两个辅助任务明确展示了推理过程,提高了模型的预测能力。
Oct, 2023
本文提出一种将有效的顺序预测范例用于跨文档指代消解的新模型,通过增量式将提及点组合成集群表征,并预测提及点与已构建的集群之间的链接,近似高阶模型,既成为实体和事件指代消解领域中具有竞争力的解决方案,也提供了不同输入和表示类型在对指代消解过程中的重要性的新见解。
Apr, 2021
提出一种新的迭代方法,通过采用同一链中和跨事件链中的事件提及之间的相互依赖性逐渐构建事件聚类,并使用两个不同的成对分类器来区分同一链中和跨文档事件指称之间的事件指称,并交替进行聚类后合并,最终执行事件链之间的进一步合并,从而在 WD 和 CD 事件共指解析的联合任务中胜过现有方法。
Jul, 2017
本文提出了一种基于监督表示学习的聚类框架来解决事件指代消解问题,采用了含有新颖 CORE 项的神经网络架构作为模型,该模型可以通过建立事件提及嵌入使聚类变得更易操作;在 ECB + 语料库上的测试中,我们的模型在文内和跨文档指代消解问题上均获得了比竞争模型更好的结果,实验结果鼓舞人心,提出了一种利用表示学习解决指代消解和聚类问题的新的普适性框架。
May, 2018
该研究基于 contextualized language representations 和 pretrained BERT model 开发了一种新的 event coreference 任务模型,通过训练神经网络分类器和简单的聚类算法,取得了 state-of-the-art 的实验结果。
Feb, 2021
使用自然语言处理(NLP)中的事件核指消解(Event Coreference Resolution)技术,通过利用现代自回归语言模型生成的假设自由文本(abductive free-text rationales)作为小型学生模型的远程监督,进行事件的跨文档核指消解(cross-document coreference),以提高核指消解的性能。
Apr, 2024
本文探讨了跨文档指代消解任务的交叉文档指代搜索模型,通过适应深挖掘检索模型作为基准线,并结合强大的指代打分方案,来寻找在大型文档集合中与给定事件相关的所有指代消解,通过相应的数据集来支持这项任务的研究。
Oct, 2022