对话中的端到端神经语篇指示消解
本研究提出了一种新方法,通过引入修辞信息到神经共指消解模型中,来明确捕获层次化语篇中的指代选择, 并使用多语言实体感知语言模型 LUKE,在 RuCoCo-23 共指消解任务上评估了该方法的性能。实验表明,使用修辞距离的最佳模型在开发集 (74.6 % F1) 上排名第一,在测试集 (73.3 % F1) 上排名第二。希望我们的研究能够激发对于神经共指消解模型中引入语篇信息的进一步研究。
Jun, 2023
采用多种核指模型测试增量聚类方法,得出使用 coref-hoi 模型的簇合并版本与 Workspace Coreference System 结合可以将解析准确度提升至 10.33%。将核指类型分类与核指模型训练的学习目标结合,从而实现了关于议论的代词消解。
Jan, 2023
本文提出了一种针对在线解码的指代消解方向,其针对包含对话在内的实时生成输入的场景,在每个对话轮次上,该模型接受一个话语和其过去的语境,然后查找当前话语中的提及以及它们的指代。该文章提出了基线和四个增量更新的模型,适应于提到链接范式的新设置,其中包括单一实例、说话人定位编码和跨轮次提及的情境化。在 Friends、OntoNotes 和 BOLT 这三个数据集上评估我们的方法,结果表明每个方面都带来了稳定的改进,我们最好的模型比基线高出 10%以上,是这个场景的一个有效系统。进一步分析突出了任务特点,例如解决提及回忆的重要性。
May, 2022
本文介绍了第一个端到端的共指消解模型,并展示了它在不使用句法分析器或手工制作的提及检测器的情况下,明显优于所有以前的工作。模型的关键思想是直接将文档中的所有跨度作为可能的提及,并学习每个可能的先行词的分布。模型计算跨度嵌入,将依赖于上下文的边界表示与定位注意机制相结合。它被训练成最大化核对聚类中的黄金先行跨度的边际可能性,并分解以便于对可能存在的提及进行积极修剪。实验表明,尽管这是第一个成功训练不使用外部资源的方法,它仍可以在 OntoNotes 基准测试上获得 1.5 F1 分数的增益,并使用 5 个模型集合获得 3.1 F1 分数的提升。
Jul, 2017
本研究提出一种新颖的联合学习框架,用于解决复杂的多轮对话理解中的指代消解和查询重写,通过在进行中的对话中预测查询和对话上下文之间的指代链,并生成自包含的重写查询,可显著提高查询重写的性能,并在数据集 MuDoCo 上优于最先进的指代解析模型。
May, 2021
本文提出了一种基于实体为中心的跨语言指代消解模型,利用多语言嵌入和语言无关特征进行构建,并进行了内在和外在评估。结果表明,本模型在英语训练,中文和西班牙语测试上的性能表现优异,能够在不利用任何中文或西班牙语标注数据的情况下,实现优越的实体链接精度。
Jun, 2018
本文介绍了一种基于强化学习的新型端到端对话系统学习框架,用于解决模块化任务完成功能对话系统在训练和使用中面临的挑战。研究的实验表明,该端到端系统不仅在客观和主观评估中优于传统的模块化对话系统基线,而且在处理语言理解模块的各种误差时具有稳健性。
Mar, 2017
本文关注跨语言环境下的指代消解,探讨了三种不同的方法 -- 词汇去表示,多语种嵌入和机器翻译,并在低资源和大资源设置下进行了比较,发现在低资源的情况下,多语种嵌入和通过数据增强的词汇去表示方法具有显著的提升,但随着目标语言中可用数据量的增加,其增益逐渐减少。在结合机器翻译的情况下,我们可以获得接近目标语言实时数据的性能,仅需将 25%的数据投影到目标语言中。
Nov, 2018