学习核链消解的全局特征
通过使用神经网络和学习搜索算法,本研究提出了一种基于实体级信息的代指消解系统,其在 CoNLL 2012 共享任务数据集的英语和中文部分上,即使使用了很少的手工特征,也显著优于当前最先进的技术。
Jun, 2016
本文提出了一种针对 NLP 中需要汇总来自远处的同一实体的信息的情况的循环层,该层使用外部系统提取的指代注释连接属于同一簇的实体提及,并将其合并到最先进的阅读理解模型中,从而改善了 Wikihop、LAMBADA 和 bAbi 人工智能任务的性能,并且可在数据稀缺时获得大的收益。
Apr, 2018
这篇论文提出了一种通过多任务学习方法学习单例以及实体类型和信息状态等特征的共指模型,在 OntoGUM 基准上取得了新的最高分(+2.7 分),并在多个领域的数据集上提高了鲁棒性(平均 + 2.3 分),可能是由于更大的指称检测的泛化能力和更多单例数据的利用所致。
Sep, 2023
本研究探讨在核指消解中使用语言特征以提高泛化性能,结果表明,仅增加一组附加的语言特征只略微提高泛化性能,而使用信息量高的特征子集,可以显著提高泛化性能,从而使得我们的系统在 WikiCoref 数据集上获得了与该数据集特定模型相当的表现,实现了最先进的结果。
Aug, 2017
提出了一种基于聚类排名的共指解析方法,该方法结合了提及排名和实体 - 提及模型的优点,并通过两个扩展来改进聚类排名者的性能: (1) 词汇化和 (2) 通过联合建模代表性确定和共指解析来结合关于先行词类型的知识。实验结果表明,与竞争方法相比,此方法具有卓越的性能,并且我们的两个扩展措施是有效的。
Jan, 2014
本文研究了基于循环神经网络(RNN)的提及检测系统的鲁棒性及其在信息提取中的应用,表明在英语的普通或跨领域的情况下,RNNs 不仅在通用情况下优于之前报告的最佳系统(最多可达 9%的相对错误降低),而且在荷兰语中表现出的命名实体识别相似任务中,RNNs 比传统方法显著优越(最多可达 22%的相对错误降低)。
Feb, 2016
本文提出了基于演员 - 评论家学习的混合规则 - 神经共指消解系统,它通过利用启发式规则和神经共指消解模型的优点来实现更好的共指性能。此端到端系统还可以通过使用联合训练算法执行提及检测和消解,并使用 BERT 模型生成输入跨度表示。我们的模型在 CoNLL-2012 Shared Task 英文测试集上使用 BERT 跨度表示实现了最新的最佳性能。
Dec, 2022
本文探索了如何利用不同类型的知识图谱来更好地解决代词共参问题,并提出了一种知识注意力模块,以选择性地使用信息化知识来增强模型,实验结果表明,在不同领域的两个数据集上,我们的模型优于现有技术,并在跨领域的情况下也表现出更好的性能。
Jul, 2019
本文提出了一种基于内存增强神经网络的长文档共指消解方法,通过仅跟踪少量数量的实体,保证了线性运行时间,并且在 OntoNotes 和 LitBank 数据集上表现优异,同时学习到一种优秀的内存管理策略。
Oct, 2020