端到端多语言指代消解与提及头预测
本文概述了 CRAC 2022 研讨会上多语种共指消解任务的概况,采用公共数据集 CorefUD 1.0 为训练和评估数据,使用 CoNLL 得分作为主要评估指标,并比较了多个系统和竞争基线系统,获胜者系统的表现优于竞争基线 12 个百分点。
Sep, 2022
我们使用联合微调的方法,结合先进的预训练模型,成功地解决了 CRAC 2022 共享任务中的多语言指代消解问题,找到了一种足够大的编码器,提高了各数据集的表现,并提供了源代码。
Sep, 2022
基于 CorefUD 数据集和通用形态句法和共指注释,我们通过研究核心指代在不同语言、不同语体和不同层次上的特点,对 SotA 系统无法解决的最具挑战性情况进行错误分析,然后从通用形态句法注释中提取特征,并将这些特征集成到基线系统中,结果显示我们的最佳配置特征提高了 0.9% 的 F1 得分。
Oct, 2023
本文介绍了第一个端到端的共指消解模型,并展示了它在不使用句法分析器或手工制作的提及检测器的情况下,明显优于所有以前的工作。模型的关键思想是直接将文档中的所有跨度作为可能的提及,并学习每个可能的先行词的分布。模型计算跨度嵌入,将依赖于上下文的边界表示与定位注意机制相结合。它被训练成最大化核对聚类中的黄金先行跨度的边际可能性,并分解以便于对可能存在的提及进行积极修剪。实验表明,尽管这是第一个成功训练不使用外部资源的方法,它仍可以在 OntoNotes 基准测试上获得 1.5 F1 分数的增益,并使用 5 个模型集合获得 3.1 F1 分数的提升。
Jul, 2017
通过使用现成的翻译和词对齐工具,我们引入了一个包含 31 种南亚语言的多语种共指解析翻译数据集(TransMuCoRes)。两个现成的共指解析模型使用 TransMuCoRes 与一份具有手工注释的印地语共指解析数据集的连接进行训练,最佳模型在印地语黄金集上的 LEA F1 得分和 CoNLL F1 得分分别为 64 和 68。此研究是首次在印地语黄金集上评估了一个端到端共指解析模型,并强调了当前共指评估指标在存在拆分先行词的数据集上的局限性,倡导开发更合适的评估指标。
Feb, 2024
我们提供的 CorPipe 是 2023 年 CRAC 共享任务多语言共指解析比赛的获胜系统,它是我们之前多语言共指流水线的改进版本,并以 4.5 个百分点的巨大优势超过其他参赛者。CorPipe 首先通过检测提及实体,然后通过在提取的范围上采用先行最大化方法进行共指链接。这两个任务是在所有可用语料库上使用共享的预训练语言模型进行联合训练的。我们的主要改进包括使用大于 512 个子词的输入和更改提及解码以支持组合解。源代码可以在此 https URL 中找到。
Nov, 2023
本文提出一种基于文本到文本 (seq2seq) 模式的指代消解系统,它使用转移系统来预测提及和链接,使用多语言 T5 作为底层语言模型,在 CoNLL-2012 数据集上获得了 83.3 的 F1-score,远高于之前的最优结果;在 SemEval-2010 数据集上进行了零次训练、少次训练和有监督训练,对于所有五种测试语言,超过之前的最优结果。
Nov, 2022
本文提出了一种针对在线解码的指代消解方向,其针对包含对话在内的实时生成输入的场景,在每个对话轮次上,该模型接受一个话语和其过去的语境,然后查找当前话语中的提及以及它们的指代。该文章提出了基线和四个增量更新的模型,适应于提到链接范式的新设置,其中包括单一实例、说话人定位编码和跨轮次提及的情境化。在 Friends、OntoNotes 和 BOLT 这三个数据集上评估我们的方法,结果表明每个方面都带来了稳定的改进,我们最好的模型比基线高出 10%以上,是这个场景的一个有效系统。进一步分析突出了任务特点,例如解决提及回忆的重要性。
May, 2022
本文提出了基于演员 - 评论家学习的混合规则 - 神经共指消解系统,它通过利用启发式规则和神经共指消解模型的优点来实现更好的共指性能。此端到端系统还可以通过使用联合训练算法执行提及检测和消解,并使用 BERT 模型生成输入跨度表示。我们的模型在 CoNLL-2012 Shared Task 英文测试集上使用 BERT 跨度表示实现了最新的最佳性能。
Dec, 2022