本文探讨基于单个数据集训练的核心参考消解(Coreference resolution,COREF)学术神经模型的可迁移性,通过评估在多个包含不同注释指南和领域的数据集上的表现来建立新的性能基准。
Apr, 2021
该研究探讨了当前代表性的共指消解模型中的误差与不同数据集、核心共指类型的操作方式有关的程度,并对现有模型在各种共指类型下的表现进行了分类,结果表明在不同共指类型下的表现存在差异,这可以为未来的核心共指解析模型开发提供参考。
Mar, 2023
该论文探讨了使用预训练大型语言模型进行无监督共指消解的可行性,实验证明零样本提示优于当前的无监督共指系统,并展示了指令调整语言模型在领域适应、跨语言和跨时期方面的强大零样本泛化能力,以及高质量提及检测系统的重要性。
May, 2023
本文探讨了利用提及检测在目标域中进行兼容性适应的方法来提高神经网络核心指称分辨率的效率,取得了 7-14%的通过提及注释来提高核心指称分辨率的平均 F1 值的改进。
Oct, 2022
本文探讨如何通过主动学习来标记共指关系,比较了不同的不确定性采样策略和文档阅读成本,并发现在同一文档中标注跨度比在多个文档中标注跨度更加有效。研究结果有助于更加实际地开发共指关系解析模型。
本研究提出了一种基于集成方法和迁移学习的框架以及一种低成本的迁移学习方法,用于解决非英语语言的实体共指消解问题,并在 Arabic,Dutch 和 Spanish 三种语言上取得了新的最先进结果。
Jan, 2023
本研究探讨在核指消解中使用语言特征以提高泛化性能,结果表明,仅增加一组附加的语言特征只略微提高泛化性能,而使用信息量高的特征子集,可以显著提高泛化性能,从而使得我们的系统在 WikiCoref 数据集上获得了与该数据集特定模型相当的表现,实现了最先进的结果。
Aug, 2017
本文介绍了 OntoGUM 数据集作为新的非开放领域的 OntoNotes 核指代解析任务的基准,证明了最新的基于神经语言模型的端到端系统对领域外数据的破坏很大,深度学习系统和确定性规则系统都有着近 15-20% 的性能下降。
Jun, 2021
本文研究了指代消解系统的泛化能力问题,并采用对抗梯度训练技术重新训练最先进的系统,验证了训练后的系统在 CoNLL 数据集和 GAP 数据集上能更好地处理命名实体变化的情况。
Aug, 2019
这篇论文提出了一种通过多任务学习方法学习单例以及实体类型和信息状态等特征的共指模型,在 OntoGUM 基准上取得了新的最高分(+2.7 分),并在多个领域的数据集上提高了鲁棒性(平均 + 2.3 分),可能是由于更大的指称检测的泛化能力和更多单例数据的利用所致。
Sep, 2023