将指代消解作为问答的桥梁
我们引入了一种上下文感知的神经机器翻译模型,该模型可以控制和分析从扩展上下文到翻译模型的信息流,实验证明该模型改进了代词翻译和在指代方面进行了隐含捕获,而且不仅在指代性情况下有所改进,还提高了整体 BLEU 分数。
May, 2018
使用 LSTM-Siamese 网络提出一种提高抽象代词分析性能的注重排名的模型,通过生成人工抽象代词句子 - 先行短语对来克服缺乏训练数据的问题。在 shell 名词分辨率上,我们的模型优于最先进的结果。在包含更多名词和代词的抽象指称子集的 ARRAU 语料库中,我们发现可以优化模型的变体,但在代词指称方面仍然落后。
Jun, 2017
针对开放域多跳问答中通过阅读理解模型识别终止段落锚点的新子问题,介绍了一种新的子问题解决方案 ——“桥接推理器” 。该推理器接受一定程度的监督,通常用于训练一个 “终止段落阅读器”,从一组起始段落中提取答案,实验结果在多个数据集上优于 Baseline 方法。
Sep, 2019
通过探索名词短语的句法结构,我们创建了一个名为 embeddings_PP 的新的单词嵌入模型。使用该模型使得凌驾于 ISNotes 语料库上的关联性替代了语义相似性,实现了 30% 的桥接代词解决精度,并在桥接前置词选择中获得了超过最先进系统(Hou 等,2013 年)的实质性提升。
Mar, 2018
采用多种核指模型测试增量聚类方法,得出使用 coref-hoi 模型的簇合并版本与 Workspace Coreference System 结合可以将解析准确度提升至 10.33%。将核指类型分类与核指模型训练的学习目标结合,从而实现了关于议论的代词消解。
Jan, 2023
该论文提出了一种在多步问题回答中维护显式推理过程的方法。该方法提取一个离散的推理链,并将其提供给一个基于 BERT 的 QA 模型来进行最终答案预测。我们的方法在两个近期提出的大型多跳问题回答数据集 ——WikiHop 和 HotpotQA 上进行了测试,并取得了令人瞩目的成果。
Oct, 2019
我们提出了一种基于多任务学习的神经模型,用于解决桥接参照的问题,解决了缺乏大型标注数据集和不同语料库之间定义不同的挑战,通过使用多任务学习和语料库无关特征实现了很高的性能。
Mar, 2020
该论文介绍了第一个用于无限制解决 split-antecedent anaphors 的模型,使用 BERT 嵌入及辅助语料库进行了实验,并在金准 ARRAU 语料库上取得了显著的性能提升。
Oct, 2020
本文介绍了一种使用维基百科引用构建大规模预训练语料库以满足开放域问答系统的需求的方法,并测试了改进后的 retriever 和 reader 在精确度和 top-20 准确率方面的表现。
Mar, 2022