基于查询的跨度预测的指代消解
本文介绍了第一个端到端的共指消解模型,并展示了它在不使用句法分析器或手工制作的提及检测器的情况下,明显优于所有以前的工作。模型的关键思想是直接将文档中的所有跨度作为可能的提及,并学习每个可能的先行词的分布。模型计算跨度嵌入,将依赖于上下文的边界表示与定位注意机制相结合。它被训练成最大化核对聚类中的黄金先行跨度的边际可能性,并分解以便于对可能存在的提及进行积极修剪。实验表明,尽管这是第一个成功训练不使用外部资源的方法,它仍可以在 OntoNotes 基准测试上获得 1.5 F1 分数的增益,并使用 5 个模型集合获得 3.1 F1 分数的提升。
Jul, 2017
本文提出一种基于文本到文本 (seq2seq) 模式的指代消解系统,它使用转移系统来预测提及和链接,使用多语言 T5 作为底层语言模型,在 CoNLL-2012 数据集上获得了 83.3 的 F1-score,远高于之前的最优结果;在 SemEval-2010 数据集上进行了零次训练、少次训练和有监督训练,对于所有五种测试语言,超过之前的最优结果。
Nov, 2022
本篇论文介绍了一种轻量级端到端的共指消解模型,该模型不再需要手工特性和启发式算法,也省去了动态构建范围和范围对表示所需的内存,相比当前标准模型具有更简单和高效的特点。
Jan, 2021
本文认为使用 MRC 数据集评估 coreference reasoning 能力是有限的,提出了更能反映 coreference reasoning 挑战的 MRC 数据集构建方法,并使用先前 coreference resolution 数据集中的自然现象,展示了训练 MRC 模型的有效方式,并取得了 state-of-the-art models 的改进。
Dec, 2020
引入一种全可微分的高阶推理近似方法,用于指代消解,该方法使用跨度排名架构中的前先分布作为注意机制来迭代地改进跨度表示,从而允许模型对预测聚类中的多个跳进行软考虑,同时引入了粗到细的方法来降低计算成本。与现有的跨度排名方法相比,我们的模型在英语 OntoNotes 基准测试上显著提高了准确性,同时更加计算效率。
Apr, 2018
在对比最近的指代消解模型,并针对文本中的字跨度和潜在联系过多的问题,提出通过单个词汇之间的指代联系,重新构建字跨度来减轻计算量并出色于以前的模型。新模型在 OntoNotes 基准测试中表现出与最近的模型相当的竞争力,且在效率上显著提高。
Sep, 2021
本文提出了基于演员 - 评论家学习的混合规则 - 神经共指消解系统,它通过利用启发式规则和神经共指消解模型的优点来实现更好的共指性能。此端到端系统还可以通过使用联合训练算法执行提及检测和消解,并使用 BERT 模型生成输入跨度表示。我们的模型在 CoNLL-2012 Shared Task 英文测试集上使用 BERT 跨度表示实现了最新的最佳性能。
Dec, 2022
本文介绍了我们在 CRAC 2022 共享任务中用于多语言指代消解的方法,我们使用了最先进的端到端指代消解系统并进行了多语言联合训练,同时加入了头部预测和依赖信息集成,最终系统取得了第三名并且在其中两个数据集上表现最佳。
Sep, 2022
本研究提出了一种新方法,通过引入修辞信息到神经共指消解模型中,来明确捕获层次化语篇中的指代选择, 并使用多语言实体感知语言模型 LUKE,在 RuCoCo-23 共指消解任务上评估了该方法的性能。实验表明,使用修辞距离的最佳模型在开发集 (74.6 % F1) 上排名第一,在测试集 (73.3 % F1) 上排名第二。希望我们的研究能够激发对于神经共指消解模型中引入语篇信息的进一步研究。
Jun, 2023