LingMess: 基于语言信息的多专家评分器用于指代消解
提出了一种基于聚类排名的共指解析方法,该方法结合了提及排名和实体-提及模型的优点,并通过两个扩展来改进聚类排名者的性能: (1) 词汇化和 (2) 通过联合建模代表性确定和共指解析来结合关于先行词类型的知识。实验结果表明,与竞争方法相比,此方法具有卓越的性能,并且我们的两个扩展措施是有效的。
Jan, 2014
本文研究了在先进的共指消解器中使用大量词汇特征的一个缺点,即如果核心语义分辨器主要依靠词汇特征,它们几乎无法推广到未见过的领域。此外,我们还展示了当前的共指消解评估存在明显缺陷,因为只针对一个特定数据集中的特定拆分进行评估,在训练、开发和测试集之间存在显着重叠。
Apr, 2017
本文在共指消解和自然语言推理领域引入了一个目标针对常识理解和世界知识的新基准,即Knowref。我们提出了一个包含超过8,000个文本段落的语料库,用于研究具有歧义的代词指代的核心指代功能。我们发现,各种核心参考系统(基于规则的、特征丰富的或神经网络的)在该任务上的表现都比人类差得多,而这可能是因为这些模型缺乏上下文信息。我们还提出了一种数据增强技巧 antecedent switching,并展示了它在其他任务中取得了有 promising 的结果。
Nov, 2018
本文提出一种基于文本到文本(seq2seq)模式的指代消解系统,它使用转移系统来预测提及和链接,使用多语言T5作为底层语言模型,在CoNLL-2012数据集上获得了83.3的F1-score,远高于之前的最优结果;在SemEval-2010数据集上进行了零次训练、少次训练和有监督训练,对于所有五种测试语言,超过之前的最优结果。
Nov, 2022
本研究提出了一种基于集成方法和迁移学习的框架以及一种低成本的迁移学习方法,用于解决非英语语言的实体共指消解问题,并在 Arabic,Dutch 和 Spanish 三种语言上取得了新的最先进结果。
Jan, 2023
该论文探讨了使用预训练大型语言模型进行无监督共指消解的可行性,实验证明零样本提示优于当前的无监督共指系统,并展示了指令调整语言模型在领域适应、跨语言和跨时期方面的强大零样本泛化能力,以及高质量提及检测系统的重要性。
May, 2023
本文提出了一个简单而有效的跨语言理解模型来利用平行数据中的指代知识,该模型在OntoNotes 5.0英语数据集上使用9种不同的合成平行数据集实现了一致的提升,最高可达1.74个百分点。
May, 2023
本研究提出了一种新方法,通过引入修辞信息到神经共指消解模型中,来明确捕获层次化语篇中的指代选择, 并使用多语言实体感知语言模型 LUKE,在 RuCoCo-23 共指消解任务上评估了该方法的性能。实验表明,使用修辞距离的最佳模型在开发集 (74.6 % F1) 上排名第一,在测试集 (73.3 % F1) 上排名第二。希望我们的研究能够激发对于神经共指消解模型中引入语篇信息的进一步研究。
Jun, 2023
基于CorefUD数据集和通用形态句法和共指注释,我们通过研究核心指代在不同语言、不同语体和不同层次上的特点,对SotA系统无法解决的最具挑战性情况进行错误分析,然后从通用形态句法注释中提取特征,并将这些特征集成到基线系统中,结果显示我们的最佳配置特征提高了0.9%的F1得分。
Oct, 2023
本研究解决了多语言文本中共指消解的性能不足问题。我们提出了一种端到端的神经网络系统,并通过强基线模型和多种增强策略,如跨语言训练和单例建模,显著提升了消解准确率。研究发现,所提方案在多个数据集上都取得了优异表现,推动了多语言共指消解系统的开发。
Aug, 2024