英语中名词代词回指的预测模型
该论文介绍了第一个用于无限制解决 split-antecedent anaphors 的模型,使用 BERT 嵌入及辅助语料库进行了实验,并在金准 ARRAU 语料库上取得了显著的性能提升。
Oct, 2020
本文在共指消解和自然语言推理领域引入了一个目标针对常识理解和世界知识的新基准,即 Knowref。我们提出了一个包含超过 8,000 个文本段落的语料库,用于研究具有歧义的代词指代的核心指代功能。我们发现,各种核心参考系统(基于规则的、特征丰富的或神经网络的)在该任务上的表现都比人类差得多,而这可能是因为这些模型缺乏上下文信息。我们还提出了一种数据增强技巧 antecedent switching,并展示了它在其他任务中取得了有 promising 的结果。
Nov, 2018
使用 LSTM-Siamese 网络提出一种提高抽象代词分析性能的注重排名的模型,通过生成人工抽象代词句子 - 先行短语对来克服缺乏训练数据的问题。在 shell 名词分辨率上,我们的模型优于最先进的结果。在包含更多名词和代词的抽象指称子集的 ARRAU 语料库中,我们发现可以优化模型的变体,但在代词指称方面仍然落后。
Jun, 2017
我们引入了一种上下文感知的神经机器翻译模型,该模型可以控制和分析从扩展上下文到翻译模型的信息流,实验证明该模型改进了代词翻译和在指代方面进行了隐含捕获,而且不仅在指代性情况下有所改进,还提高了整体 BLEU 分数。
May, 2018
通过观察人工神经网络在解决交流任务时是否会出现类似的共同体结构,本研究旨在更好地理解共指结构在自然语言中的起源。研究结果显示,尽管存在增加歧义的可能性,带有共指结构的语言仍然可以被神经模型学习;共指结构在模型之间可以 “自然地” 出现,而不需要额外的约束;在说话者身上施加明确的效率压力会增加这些结构的普遍性。研究得出的结论是,在神经网络之间,某些语用结构可以直观地出现,而不需要明确的效率压力,但是说话者和听话者之间相互竞争的需求会影响它们出现的程度和性质。
Aug, 2023
本文研究了零代词在人类语言理解者及神经语言模型中的表现,通过在五组实验中,将句子中的零代词暴露给 12 个当代语言模型。研究发现其中三个模型成功模拟了人类的表现,这表明了人类语言基于语言经验的表现和语言模型更好地反映人类表现之间的联系。
Aug, 2022
研究人员通过引入系统,解决了单一和分割前置的指代,并评估了使用预测提及的更加现实的情况下,如何使用标准的共同参考评估指标来评估单一和分割前置的指代。
Apr, 2021