多方会话的联合指代消解和人物链接
本文提出了一种针对在线解码的指代消解方向,其针对包含对话在内的实时生成输入的场景,在每个对话轮次上,该模型接受一个话语和其过去的语境,然后查找当前话语中的提及以及它们的指代。该文章提出了基线和四个增量更新的模型,适应于提到链接范式的新设置,其中包括单一实例、说话人定位编码和跨轮次提及的情境化。在 Friends、OntoNotes 和 BOLT 这三个数据集上评估我们的方法,结果表明每个方面都带来了稳定的改进,我们最好的模型比基线高出 10%以上,是这个场景的一个有效系统。进一步分析突出了任务特点,例如解决提及回忆的重要性。
May, 2022
本文提出一种将有效的顺序预测范例用于跨文档指代消解的新模型,通过增量式将提及点组合成集群表征,并预测提及点与已构建的集群之间的链接,近似高阶模型,既成为实体和事件指代消解领域中具有竞争力的解决方案,也提供了不同输入和表示类型在对指代消解过程中的重要性的新见解。
Apr, 2021
本文提出了基于演员 - 评论家学习的混合规则 - 神经共指消解系统,它通过利用启发式规则和神经共指消解模型的优点来实现更好的共指性能。此端到端系统还可以通过使用联合训练算法执行提及检测和消解,并使用 BERT 模型生成输入跨度表示。我们的模型在 CoNLL-2012 Shared Task 英文测试集上使用 BERT 跨度表示实现了最新的最佳性能。
Dec, 2022
通过使用神经网络和学习搜索算法,本研究提出了一种基于实体级信息的代指消解系统,其在 CoNLL 2012 共享任务数据集的英语和中文部分上,即使使用了很少的手工特征,也显著优于当前最先进的技术。
Jun, 2016
本文概述了 CRAC 2022 研讨会上多语种共指消解任务的概况,采用公共数据集 CorefUD 1.0 为训练和评估数据,使用 CoNLL 得分作为主要评估指标,并比较了多个系统和竞争基线系统,获胜者系统的表现优于竞争基线 12 个百分点。
Sep, 2022
本研究探讨了现有最佳表现的指代消解系统的端到端核心指代消解模型的两个组件:提及检测器和提及链接器,并分析它们的行为,强调了精度和召回率的平衡问题,以及精度检测器的困难以及链接器的改进空间,提出了有前途的下一步研究方向。
Sep, 2020
本文提出了一个包含两层模型的代词共指消解模型,使用了上下文信息以及外部知识,其中一个使用注意力机制的知识模块被设计来根据不同的上下文内容确保模型能够使用合适的外部来源。实验结果表明,该模型的有效性和优越性优于现有的模型。
May, 2019
本文旨在从多个句子构成的文档中提取关系事实。通过使用异构图构建和核心指代消解处理,作者提出了一个基于图推理网络的注意指代消解的方法来增强语义信息和降低噪声,并在 DocRED,DialogRE 和 MPDD 三个公共数据集上进行了实验,证明其在文档关系抽取领域超越了目前最先进的技术水平。
Feb, 2022
提出了一种基于聚类排名的共指解析方法,该方法结合了提及排名和实体 - 提及模型的优点,并通过两个扩展来改进聚类排名者的性能: (1) 词汇化和 (2) 通过联合建模代表性确定和共指解析来结合关于先行词类型的知识。实验结果表明,与竞争方法相比,此方法具有卓越的性能,并且我们的两个扩展措施是有效的。
Jan, 2014