本篇论文介绍了一种轻量级端到端的共指消解模型,该模型不再需要手工特性和启发式算法,也省去了动态构建范围和范围对表示所需的内存,相比当前标准模型具有更简单和高效的特点。
Jan, 2021
本文介绍了一个基于 Transformer 预训练语言模型的简单而有效的代替神经指代消解模型的 baseline,证明合理简化已有模型可以取得与复杂模型相媲美的性能表现。
Jul, 2021
本文介绍了第一个端到端的共指消解模型,并展示了它在不使用句法分析器或手工制作的提及检测器的情况下,明显优于所有以前的工作。模型的关键思想是直接将文档中的所有跨度作为可能的提及,并学习每个可能的先行词的分布。模型计算跨度嵌入,将依赖于上下文的边界表示与定位注意机制相结合。它被训练成最大化核对聚类中的黄金先行跨度的边际可能性,并分解以便于对可能存在的提及进行积极修剪。实验表明,尽管这是第一个成功训练不使用外部资源的方法,它仍可以在 OntoNotes 基准测试上获得 1.5 F1 分数的增益,并使用 5 个模型集合获得 3.1 F1 分数的提升。
Jul, 2017
这篇论文提出了一种通过多任务学习方法学习单例以及实体类型和信息状态等特征的共指模型,在 OntoGUM 基准上取得了新的最高分(+2.7 分),并在多个领域的数据集上提高了鲁棒性(平均 + 2.3 分),可能是由于更大的指称检测的泛化能力和更多单例数据的利用所致。
Sep, 2023
本文提出了基于演员 - 评论家学习的混合规则 - 神经共指消解系统,它通过利用启发式规则和神经共指消解模型的优点来实现更好的共指性能。此端到端系统还可以通过使用联合训练算法执行提及检测和消解,并使用 BERT 模型生成输入跨度表示。我们的模型在 CoNLL-2012 Shared Task 英文测试集上使用 BERT 跨度表示实现了最新的最佳性能。
Dec, 2022
本文基于 Lee 等人的端到端架构,结合 Arabic 版 BERT 和外部提及检测器,引入了一个针对 Arabic 的指代消解系统。这是我们所知的第一个专门针对 Arabic 的神经元指代消解系统,并在 OntoNotes 5.0 上表现出优异的结果。同时,我们还探讨了该任务在 Arabic 上的局限性和可能的解决方案。
Oct, 2020
本文概述了 CRAC 2022 研讨会上多语种共指消解任务的概况,采用公共数据集 CorefUD 1.0 为训练和评估数据,使用 CoNLL 得分作为主要评估指标,并比较了多个系统和竞争基线系统,获胜者系统的表现优于竞争基线 12 个百分点。
Sep, 2022
本文探讨基于单个数据集训练的核心参考消解(Coreference resolution,COREF)学术神经模型的可迁移性,通过评估在多个包含不同注释指南和领域的数据集上的表现来建立新的性能基准。
Apr, 2021
本文提出了一个简单而有效的跨语言理解模型来利用平行数据中的指代知识,该模型在 OntoNotes 5.0 英语数据集上使用 9 种不同的合成平行数据集实现了一致的提升,最高可达 1.74 个百分点。
May, 2023
基于 CorefUD 数据集和通用形态句法和共指注释,我们通过研究核心指代在不同语言、不同语体和不同层次上的特点,对 SotA 系统无法解决的最具挑战性情况进行错误分析,然后从通用形态句法注释中提取特征,并将这些特征集成到基线系统中,结果显示我们的最佳配置特征提高了 0.9% 的 F1 得分。
Oct, 2023