基于 Seq2Seq 转移系统的指代消解
本研究中,我们证明 task-specific 模型并非必需,通过微调预训练的 seq2seq transformer,将输入文档映射为编码指示共指标注的标记序列,我们的模型在多个数据集上表现优于或接近文献中最佳的共指系统。我们还提出了一种特别简单的 seq2seq 方法,仅生成标记的范围而不包含原始文本。我们的分析表明模型大小、监督数量和序列表示的选择是性能的关键因素。
Oct, 2023
本文介绍了第一个端到端的共指消解模型,并展示了它在不使用句法分析器或手工制作的提及检测器的情况下,明显优于所有以前的工作。模型的关键思想是直接将文档中的所有跨度作为可能的提及,并学习每个可能的先行词的分布。模型计算跨度嵌入,将依赖于上下文的边界表示与定位注意机制相结合。它被训练成最大化核对聚类中的黄金先行跨度的边际可能性,并分解以便于对可能存在的提及进行积极修剪。实验表明,尽管这是第一个成功训练不使用外部资源的方法,它仍可以在 OntoNotes 基准测试上获得 1.5 F1 分数的增益,并使用 5 个模型集合获得 3.1 F1 分数的提升。
Jul, 2017
本文概述了 CRAC 2022 研讨会上多语种共指消解任务的概况,采用公共数据集 CorefUD 1.0 为训练和评估数据,使用 CoNLL 得分作为主要评估指标,并比较了多个系统和竞争基线系统,获胜者系统的表现优于竞争基线 12 个百分点。
Sep, 2022
通过使用现成的翻译和词对齐工具,我们引入了一个包含 31 种南亚语言的多语种共指解析翻译数据集(TransMuCoRes)。两个现成的共指解析模型使用 TransMuCoRes 与一份具有手工注释的印地语共指解析数据集的连接进行训练,最佳模型在印地语黄金集上的 LEA F1 得分和 CoNLL F1 得分分别为 64 和 68。此研究是首次在印地语黄金集上评估了一个端到端共指解析模型,并强调了当前共指评估指标在存在拆分先行词的数据集上的局限性,倡导开发更合适的评估指标。
Feb, 2024
本文介绍了我们在 CRAC 2022 共享任务中用于多语言指代消解的方法,我们使用了最先进的端到端指代消解系统并进行了多语言联合训练,同时加入了头部预测和依赖信息集成,最终系统取得了第三名并且在其中两个数据集上表现最佳。
Sep, 2022
本文提出了基于演员 - 评论家学习的混合规则 - 神经共指消解系统,它通过利用启发式规则和神经共指消解模型的优点来实现更好的共指性能。此端到端系统还可以通过使用联合训练算法执行提及检测和消解,并使用 BERT 模型生成输入跨度表示。我们的模型在 CoNLL-2012 Shared Task 英文测试集上使用 BERT 跨度表示实现了最新的最佳性能。
Dec, 2022
本文提出一种句子增量神经代词消解系统,成功地融合了两种最新的技术:非增量模型和内存网络模型,在 OntoNotes 和 CODI-CRAC 2021 中达到了更好的结果。
May, 2023
本研究提出了一种基于集成方法和迁移学习的框架以及一种低成本的迁移学习方法,用于解决非英语语言的实体共指消解问题,并在 Arabic,Dutch 和 Spanish 三种语言上取得了新的最先进结果。
Jan, 2023
本文提出了一种针对在线解码的指代消解方向,其针对包含对话在内的实时生成输入的场景,在每个对话轮次上,该模型接受一个话语和其过去的语境,然后查找当前话语中的提及以及它们的指代。该文章提出了基线和四个增量更新的模型,适应于提到链接范式的新设置,其中包括单一实例、说话人定位编码和跨轮次提及的情境化。在 Friends、OntoNotes 和 BOLT 这三个数据集上评估我们的方法,结果表明每个方面都带来了稳定的改进,我们最好的模型比基线高出 10%以上,是这个场景的一个有效系统。进一步分析突出了任务特点,例如解决提及回忆的重要性。
May, 2022