论文题目:基于指代消解的对话摘要
通过引入一种叫做对比学习的技术来解决对话总结中信息分散和主题变化的挑战,该方法使用了两个具体的辅助任务 (coherence detection 和 sub-summary generation),在基于原始对话总结任务上取得了最优性能,显著超过强基准模型。
Sep, 2021
本文提出两个基于人类对话语言知识和语境特征的软约束来改进模型的对话代词消解能力,将这两个约束嵌入到深度 transformer 神经架构中。实验结果显示出了本模型在 VisDial v1.0 数据集上相比于现有模型的性能提升,无需预训练其他视觉语言数据集。
Mar, 2022
本论文旨在通过引入对话行为,设计一种基于句子门控机制的神经摘要模型,以更好地模拟对话行为和摘要之间的关系,从而提高其在 AMI 会议语料库上的性能表现。实验结果表明,所提出的模型相对于现有的基线表现有很大改善,突显出对话行为所提供的交互信号的实用性。
Sep, 2018
本研究针对对话摘要技术所面临的特殊需求,探索处理多个发言者对话识别、否定理解、情景推理和非正式语言理解四大挑战,并使用预先训练的序列到序列语言模型进行实验,通过发言者名称代替、否定范围突出、多任务学习与域内预训练等方法提高摘要表现,超越强基准结果。
Sep, 2021
该论文介绍了一种新型的多说话者对话摘要生成器,利用大规模的常识知识来促进对话理解和总结生成。实验表明我们的模型能够优化 SAMSum 数据集,并且也能够更好地适用于新领域的零样本实验。
Oct, 2020
本文提出了一种针对在线解码的指代消解方向,其针对包含对话在内的实时生成输入的场景,在每个对话轮次上,该模型接受一个话语和其过去的语境,然后查找当前话语中的提及以及它们的指代。该文章提出了基线和四个增量更新的模型,适应于提到链接范式的新设置,其中包括单一实例、说话人定位编码和跨轮次提及的情境化。在 Friends、OntoNotes 和 BOLT 这三个数据集上评估我们的方法,结果表明每个方面都带来了稳定的改进,我们最好的模型比基线高出 10%以上,是这个场景的一个有效系统。进一步分析突出了任务特点,例如解决提及回忆的重要性。
May, 2022
研究利用自然语言推理(NLI)模型来提高对话摘要的覆盖率和忠实度,通过计算细粒度训练信号,产生内容在参考摘要中未被涵盖,并且区分生成的句子是与事实一致或不一致的,通过 DialogSum 和 SAMSum 数据集的实验证实该方法的有效性,并通过自动度量和人类评估进行验证,另外,评估三个不同维度的对话摘要,计算常用自动度量与人类判断之间的相关性,以提供有关最适合评估对话摘要的度量标准的见解。
Jan, 2023
本文提出了一种可控的神经生成框架,它可以利用个人命名实体规划灵活引导对话摘要生成。条件序列被调节以决定何种类型的信息或者何种角度着重于形成摘要,以解决摘要任务中的低限制问题。实验结果表明,我们提出的框架使用各种规划控制生成流畅和事实正确的摘要。
Sep, 2021
本研究提出了一种多视角序列到序列模型,其通过提取来自不同视角的非结构化日常聊天中的会话结构来表示会话,然后利用多视角解码器来合并不同视角生成对话摘要,在大规模对话摘要语料库上的实验结果表明,本研究方法在自动评估和人类判断方面均明显优于之前的最新模型。
Oct, 2020