重审共指消解的选取偏好
本文提出了一个基于生成模型,引入 resolution mode 变量的无监督排名模型,用于实体的共指消解。该无监督系统在 CoNLL-2012 共享任务的英文数据上,通过 CoNLL 指标得分为 58.44%,超过了 Stanford 确定性系统(Lee et al.,2013)3.01% 的得分。
Mar, 2016
提出了一种基于聚类排名的共指解析方法,该方法结合了提及排名和实体 - 提及模型的优点,并通过两个扩展来改进聚类排名者的性能: (1) 词汇化和 (2) 通过联合建模代表性确定和共指解析来结合关于先行词类型的知识。实验结果表明,与竞争方法相比,此方法具有卓越的性能,并且我们的两个扩展措施是有效的。
Jan, 2014
本篇论文介绍了一种轻量级端到端的共指消解模型,该模型不再需要手工特性和启发式算法,也省去了动态构建范围和范围对表示所需的内存,相比当前标准模型具有更简单和高效的特点。
Jan, 2021
通过建模文档级别的语义关系图表,该研究提出了一种非自回归学习的自然语言处理模型,以改善代词关联问题的解决性能。实验结果表明,该方法在多个基准测试场景下有显著表现提升。
Mar, 2022
本研究探讨了现有最佳表现的指代消解系统的端到端核心指代消解模型的两个组件:提及检测器和提及链接器,并分析它们的行为,强调了精度和召回率的平衡问题,以及精度检测器的困难以及链接器的改进空间,提出了有前途的下一步研究方向。
Sep, 2020
本文介绍了第一个端到端的共指消解模型,并展示了它在不使用句法分析器或手工制作的提及检测器的情况下,明显优于所有以前的工作。模型的关键思想是直接将文档中的所有跨度作为可能的提及,并学习每个可能的先行词的分布。模型计算跨度嵌入,将依赖于上下文的边界表示与定位注意机制相结合。它被训练成最大化核对聚类中的黄金先行跨度的边际可能性,并分解以便于对可能存在的提及进行积极修剪。实验表明,尽管这是第一个成功训练不使用外部资源的方法,它仍可以在 OntoNotes 基准测试上获得 1.5 F1 分数的增益,并使用 5 个模型集合获得 3.1 F1 分数的提升。
Jul, 2017
本文提出一种将有效的顺序预测范例用于跨文档指代消解的新模型,通过增量式将提及点组合成集群表征,并预测提及点与已构建的集群之间的链接,近似高阶模型,既成为实体和事件指代消解领域中具有竞争力的解决方案,也提供了不同输入和表示类型在对指代消解过程中的重要性的新见解。
Apr, 2021
通过使用神经网络和学习搜索算法,本研究提出了一种基于实体级信息的代指消解系统,其在 CoNLL 2012 共享任务数据集的英语和中文部分上,即使使用了很少的手工特征,也显著优于当前最先进的技术。
Jun, 2016
引入一种全可微分的高阶推理近似方法,用于指代消解,该方法使用跨度排名架构中的前先分布作为注意机制来迭代地改进跨度表示,从而允许模型对预测聚类中的多个跳进行软考虑,同时引入了粗到细的方法来降低计算成本。与现有的跨度排名方法相比,我们的模型在英语 OntoNotes 基准测试上显著提高了准确性,同时更加计算效率。
Apr, 2018
本文介绍了一个基于 Transformer 预训练语言模型的简单而有效的代替神经指代消解模型的 baseline,证明合理简化已有模型可以取得与复杂模型相媲美的性能表现。
Jul, 2021