省略消解作为问答评估
引入一种全可微分的高阶推理近似方法,用于指代消解,该方法使用跨度排名架构中的前先分布作为注意机制来迭代地改进跨度表示,从而允许模型对预测聚类中的多个跳进行软考虑,同时引入了粗到细的方法来降低计算成本。与现有的跨度排名方法相比,我们的模型在英语OntoNotes基准测试上显著提高了准确性,同时更加计算效率。
Apr, 2018
本文在共指消解和自然语言推理领域引入了一个目标针对常识理解和世界知识的新基准,即Knowref。我们提出了一个包含超过8,000个文本段落的语料库,用于研究具有歧义的代词指代的核心指代功能。我们发现,各种核心参考系统(基于规则的、特征丰富的或神经网络的)在该任务上的表现都比人类差得多,而这可能是因为这些模型缺乏上下文信息。我们还提出了一种数据增强技巧 antecedent switching,并展示了它在其他任务中取得了有 promising 的结果。
Nov, 2018
提供一个新的众包数据集,用于多句理解文本,涉及复杂的指代消解,旨在评估阅读模型解决指代消解的能力,与现有的基准模型相比,该模型表现显著更好。
Aug, 2019
本论文提出了一种用于解决社交对话中省略现象的方法,通过使用端到端指针网络模型对用户发言进行补全,结合原始发言和自动补全发言来进行对话行为预测和语义角色标注任务。该方法在社交对话中分别将对话行为预测和语义角色标注的 F1 分数提高了 1.3% 和 2.5%。同时,我们提供了一个包含手动完成用户发言和手动完成后的语义角色标注的开放域人机对话数据集。
Nov, 2019
本文认为使用 MRC 数据集评估 coreference reasoning 能力是有限的,提出了更能反映 coreference reasoning 挑战的 MRC 数据集构建方法,并使用先前 coreference resolution 数据集中的自然现象,展示了训练 MRC 模型的有效方式,并取得了 state-of-the-art models 的改进。
Dec, 2020
本研究提出一种新颖的联合学习框架,用于解决复杂的多轮对话理解中的指代消解和查询重写,通过在进行中的对话中预测查询和对话上下文之间的指代链,并生成自包含的重写查询,可显著提高查询重写的性能,并在数据集 MuDoCo 上优于最先进的指代解析模型。
May, 2021
本文介绍了一种模拟人类阅读过程并利用实体的指代信息来增强预训练语言模型中的词嵌入以提高模型性能的方法,头两种微调方式,即在预训练模型后添加额外的编码器层以关注实体的指代提及或构建关系图卷积网络来建模实体间的关系。结果表明,在微调阶段明确加入指代信息的方法比在预训练中加入指代信息的方法表现更好。
Oct, 2021
本文提出了一种基于DistilBERT的多标签分类器,在有限的标记数据上采用多标签分类和主动学习来检测对话问答中省略和共指的现象,大大提高了分类器的性能。
Jul, 2022
通过使用指令跟踪模型(GPT-4)和递归批评和改进循环,我们开发了一个高质量数据集,该数据集包含超过250个包含共指的问题-回答对,以满足共指解析在问答任务中的信息检索需求。
Nov, 2023
本研究针对大型语言模型在理解长文本和有效问答时面临的挑战,提出了一种名为长问共指适应(LQCA)的方法,旨在优化共指解析以更好地处理长上下文。通过系统性地处理信息,该方法提高了模型的理解能力,实验证明在多个数据集和LLM上表现显著优于传统方法。
Oct, 2024