通过学习实体级分布式表示来提高共指消解
本文提出了一种针对 NLP 中需要汇总来自远处的同一实体的信息的情况的循环层,该层使用外部系统提取的指代注释连接属于同一簇的实体提及,并将其合并到最先进的阅读理解模型中,从而改善了 Wikihop、LAMBADA 和 bAbi 人工智能任务的性能,并且可在数据稀缺时获得大的收益。
Apr, 2018
这篇论文提出了一种通过多任务学习方法学习单例以及实体类型和信息状态等特征的共指模型,在 OntoGUM 基准上取得了新的最高分(+2.7 分),并在多个领域的数据集上提高了鲁棒性(平均 + 2.3 分),可能是由于更大的指称检测的泛化能力和更多单例数据的利用所致。
Sep, 2023
提出了一种基于聚类排名的共指解析方法,该方法结合了提及排名和实体 - 提及模型的优点,并通过两个扩展来改进聚类排名者的性能: (1) 词汇化和 (2) 通过联合建模代表性确定和共指解析来结合关于先行词类型的知识。实验结果表明,与竞争方法相比,此方法具有卓越的性能,并且我们的两个扩展措施是有效的。
Jan, 2014
本文提出了基于演员 - 评论家学习的混合规则 - 神经共指消解系统,它通过利用启发式规则和神经共指消解模型的优点来实现更好的共指性能。此端到端系统还可以通过使用联合训练算法执行提及检测和消解,并使用 BERT 模型生成输入跨度表示。我们的模型在 CoNLL-2012 Shared Task 英文测试集上使用 BERT 跨度表示实现了最新的最佳性能。
Dec, 2022
本研究提出了一种新方法,通过引入修辞信息到神经共指消解模型中,来明确捕获层次化语篇中的指代选择, 并使用多语言实体感知语言模型 LUKE,在 RuCoCo-23 共指消解任务上评估了该方法的性能。实验表明,使用修辞距离的最佳模型在开发集 (74.6 % F1) 上排名第一,在测试集 (73.3 % F1) 上排名第二。希望我们的研究能够激发对于神经共指消解模型中引入语篇信息的进一步研究。
Jun, 2023
本文提出了一个基于生成模型,引入 resolution mode 变量的无监督排名模型,用于实体的共指消解。该无监督系统在 CoNLL-2012 共享任务的英文数据上,通过 CoNLL 指标得分为 58.44%,超过了 Stanford 确定性系统(Lee et al.,2013)3.01% 的得分。
Mar, 2016
本文提出了一种基于内存增强神经网络的长文档共指消解方法,通过仅跟踪少量数量的实体,保证了线性运行时间,并且在 OntoNotes 和 LitBank 数据集上表现优异,同时学习到一种优秀的内存管理策略。
Oct, 2020
本文提出一种将有效的顺序预测范例用于跨文档指代消解的新模型,通过增量式将提及点组合成集群表征,并预测提及点与已构建的集群之间的链接,近似高阶模型,既成为实体和事件指代消解领域中具有竞争力的解决方案,也提供了不同输入和表示类型在对指代消解过程中的重要性的新见解。
Apr, 2021
本文介绍了第一个端到端的共指消解模型,并展示了它在不使用句法分析器或手工制作的提及检测器的情况下,明显优于所有以前的工作。模型的关键思想是直接将文档中的所有跨度作为可能的提及,并学习每个可能的先行词的分布。模型计算跨度嵌入,将依赖于上下文的边界表示与定位注意机制相结合。它被训练成最大化核对聚类中的黄金先行跨度的边际可能性,并分解以便于对可能存在的提及进行积极修剪。实验表明,尽管这是第一个成功训练不使用外部资源的方法,它仍可以在 OntoNotes 基准测试上获得 1.5 F1 分数的增益,并使用 5 个模型集合获得 3.1 F1 分数的提升。
Jul, 2017