使用分裂先行词消解打分核心链
该论文介绍了第一个用于无限制解决 split-antecedent anaphors 的模型,使用 BERT 嵌入及辅助语料库进行了实验,并在金准 ARRAU 语料库上取得了显著的性能提升。
Oct, 2020
研究人员通过引入系统,解决了单一和分割前置的指代,并评估了使用预测提及的更加现实的情况下,如何使用标准的共同参考评估指标来评估单一和分割前置的指代。
Apr, 2021
本研究使用 OntoNotes 语料库,通过集合方法预测英语虚指词在语境中的使用,为最大实证数据的基础。结果表明,提出在指示语前置的复数结构的理论方法是不足够的,而在虚指语处的情境和全局因素(如体裁)对指示表达的选择有很大影响。
Apr, 2018
本文在共指消解和自然语言推理领域引入了一个目标针对常识理解和世界知识的新基准,即 Knowref。我们提出了一个包含超过 8,000 个文本段落的语料库,用于研究具有歧义的代词指代的核心指代功能。我们发现,各种核心参考系统(基于规则的、特征丰富的或神经网络的)在该任务上的表现都比人类差得多,而这可能是因为这些模型缺乏上下文信息。我们还提出了一种数据增强技巧 antecedent switching,并展示了它在其他任务中取得了有 promising 的结果。
Nov, 2018
通过玩游戏来标注语料库是一种有效的方法,本文提出了一种用于指代和共识关系的语料库,相对于先前发布的语料库,它具有更广泛的领域、更多的标记、更长的文档和更高的标注速度。
Oct, 2022
本文提出了一种新的架构,用于存储和访问实体提及,在进行在线文本处理过程中,通过将记忆操作编码为可微分的门,可以通过使用监督语音解析目标以及辅助语言模型目标来对模型进行端对端的培训,并通过代词 - 名称照应的数据集评估,证明了在完全增量文本处理中具有强大的性能。
Feb, 2019
使用 LSTM-Siamese 网络提出一种提高抽象代词分析性能的注重排名的模型,通过生成人工抽象代词句子 - 先行短语对来克服缺乏训练数据的问题。在 shell 名词分辨率上,我们的模型优于最先进的结果。在包含更多名词和代词的抽象指称子集的 ARRAU 语料库中,我们发现可以优化模型的变体,但在代词指称方面仍然落后。
Jun, 2017
采用多种核指模型测试增量聚类方法,得出使用 coref-hoi 模型的簇合并版本与 Workspace Coreference System 结合可以将解析准确度提升至 10.33%。将核指类型分类与核指模型训练的学习目标结合,从而实现了关于议论的代词消解。
Jan, 2023
本文提出了一个简单而有效的跨语言理解模型来利用平行数据中的指代知识,该模型在 OntoNotes 5.0 英语数据集上使用 9 种不同的合成平行数据集实现了一致的提升,最高可达 1.74 个百分点。
May, 2023