对话中的先行词消解:系统描述(CODI-CRAC2022 共享任务)
本研究提出一种新颖的联合学习框架,用于解决复杂的多轮对话理解中的指代消解和查询重写,通过在进行中的对话中预测查询和对话上下文之间的指代链,并生成自包含的重写查询,可显著提高查询重写的性能,并在数据集 MuDoCo 上优于最先进的指代解析模型。
May, 2021
通过对任务特定特征进行扩展,我们将 Lee 等人(2018)的基于跨度的实体共指模型应用于对话中的端到端篇章指代解析任务,并提出了 dd-utt 模型。该模型在 CODI-CRAC 2021 共享任务的四个数据集上取得了最先进的结果。
Nov, 2022
本文概述了 CRAC 2022 研讨会上多语种共指消解任务的概况,采用公共数据集 CorefUD 1.0 为训练和评估数据,使用 CoNLL 得分作为主要评估指标,并比较了多个系统和竞争基线系统,获胜者系统的表现优于竞争基线 12 个百分点。
Sep, 2022
本研究提出了一种新方法,通过引入修辞信息到神经共指消解模型中,来明确捕获层次化语篇中的指代选择, 并使用多语言实体感知语言模型 LUKE,在 RuCoCo-23 共指消解任务上评估了该方法的性能。实验表明,使用修辞距离的最佳模型在开发集 (74.6 % F1) 上排名第一,在测试集 (73.3 % F1) 上排名第二。希望我们的研究能够激发对于神经共指消解模型中引入语篇信息的进一步研究。
Jun, 2023
本文提出一种句子增量神经代词消解系统,成功地融合了两种最新的技术:非增量模型和内存网络模型,在 OntoNotes 和 CODI-CRAC 2021 中达到了更好的结果。
May, 2023
本文提出了基于演员 - 评论家学习的混合规则 - 神经共指消解系统,它通过利用启发式规则和神经共指消解模型的优点来实现更好的共指性能。此端到端系统还可以通过使用联合训练算法执行提及检测和消解,并使用 BERT 模型生成输入跨度表示。我们的模型在 CoNLL-2012 Shared Task 英文测试集上使用 BERT 跨度表示实现了最新的最佳性能。
Dec, 2022
本文分析了 higher-order inference(HOI)对共指消解任务的影响,发现在已有高性能编码器的情况下,HOI 对该任务的影响为负向至一定程度,提供了一个新的任务视角。使用集群合并的最佳模型在 CoNLL 2012 英语共享任务数据集上显示出 80.2 的平均 F1。
Sep, 2020
提出了一种基于聚类排名的共指解析方法,该方法结合了提及排名和实体 - 提及模型的优点,并通过两个扩展来改进聚类排名者的性能: (1) 词汇化和 (2) 通过联合建模代表性确定和共指解析来结合关于先行词类型的知识。实验结果表明,与竞争方法相比,此方法具有卓越的性能,并且我们的两个扩展措施是有效的。
Jan, 2014
本文提出了一种针对在线解码的指代消解方向,其针对包含对话在内的实时生成输入的场景,在每个对话轮次上,该模型接受一个话语和其过去的语境,然后查找当前话语中的提及以及它们的指代。该文章提出了基线和四个增量更新的模型,适应于提到链接范式的新设置,其中包括单一实例、说话人定位编码和跨轮次提及的情境化。在 Friends、OntoNotes 和 BOLT 这三个数据集上评估我们的方法,结果表明每个方面都带来了稳定的改进,我们最好的模型比基线高出 10%以上,是这个场景的一个有效系统。进一步分析突出了任务特点,例如解决提及回忆的重要性。
May, 2022
该研究将连贯指代消解视为基于上下文的问答,并提出了一个名为 BARQA 的框架来处理此任务,利用迁移学习的能力使模型在 ISNotes 和 BASHI 两个连贯语料库上的表现达到了最新的最佳水平。
Apr, 2020