单前体和复合前体指代消解系统:Stay Together
该论文介绍了第一个用于无限制解决 split-antecedent anaphors 的模型,使用 BERT 嵌入及辅助语料库进行了实验,并在金准 ARRAU 语料库上取得了显著的性能提升。
Oct, 2020
使用 LSTM-Siamese 网络提出一种提高抽象代词分析性能的注重排名的模型,通过生成人工抽象代词句子 - 先行短语对来克服缺乏训练数据的问题。在 shell 名词分辨率上,我们的模型优于最先进的结果。在包含更多名词和代词的抽象指称子集的 ARRAU 语料库中,我们发现可以优化模型的变体,但在代词指称方面仍然落后。
Jun, 2017
本研究使用 OntoNotes 语料库,通过集合方法预测英语虚指词在语境中的使用,为最大实证数据的基础。结果表明,提出在指示语前置的复数结构的理论方法是不足够的,而在虚指语处的情境和全局因素(如体裁)对指示表达的选择有很大影响。
Apr, 2018
该研究将连贯指代消解视为基于上下文的问答,并提出了一个名为 BARQA 的框架来处理此任务,利用迁移学习的能力使模型在 ISNotes 和 BASHI 两个连贯语料库上的表现达到了最新的最佳水平。
Apr, 2020
我们引入了一种上下文感知的神经机器翻译模型,该模型可以控制和分析从扩展上下文到翻译模型的信息流,实验证明该模型改进了代词翻译和在指代方面进行了隐含捕获,而且不仅在指代性情况下有所改进,还提高了整体 BLEU 分数。
May, 2018
通过对 WL-coref 的失败案例进行分析,我们提出了一种简单而有效的解决方案,通过在 OntoNotes 测试集上提高 0.9% 的 F1 值,将高效的单词级共指消解和昂贵的 SOTA 方法之间的差距缩小了 34.6%。
Oct, 2023
采用多种核指模型测试增量聚类方法,得出使用 coref-hoi 模型的簇合并版本与 Workspace Coreference System 结合可以将解析准确度提升至 10.33%。将核指类型分类与核指模型训练的学习目标结合,从而实现了关于议论的代词消解。
Jan, 2023
本文提出了一种新的架构,用于存储和访问实体提及,在进行在线文本处理过程中,通过将记忆操作编码为可微分的门,可以通过使用监督语音解析目标以及辅助语言模型目标来对模型进行端对端的培训,并通过代词 - 名称照应的数据集评估,证明了在完全增量文本处理中具有强大的性能。
Feb, 2019
本研究提出一种新颖的联合学习框架,用于解决复杂的多轮对话理解中的指代消解和查询重写,通过在进行中的对话中预测查询和对话上下文之间的指代链,并生成自包含的重写查询,可显著提高查询重写的性能,并在数据集 MuDoCo 上优于最先进的指代解析模型。
May, 2021