对话摘要化是将原始对话压缩成涵盖重要信息的短版,用于减轻对话数据负载,本研究从多个领域(包括会议,聊天,电子邮件,客户服务和医疗对话)全面系统地调查了对话摘要化的现状和研究进展,包括可用于研究数据集的总览和两个排行榜,并提出了一些未来的研究方向,如忠实度、多模态、多领域和多语言对话摘要化。
Jul, 2021
通过系统性地回顾 2019 年至 2024 年间发表的 1262 篇独特研究论文,本文总结了基于 Transformer 的英语对话抽象总结的研究,并涵盖了对话总结中的主要挑战和相应的技术,例如基于图的方法、额外的训练任务和计划策略。虽然一些挑战,如语言,已经取得了相当大的进展,但其他一些挑战,如理解、准确性和显著性,仍然困难,具有重要的研究机会。
Jun, 2024
本文提出引入不同层次的人类反馈,结合增强学习以提高抽象对话摘要的质量。实验表明,该方法在人类判断方面优于监督式基线,并能提高摘要质量。
Dec, 2022
通过引入一种叫做对比学习的技术来解决对话总结中信息分散和主题变化的挑战,该方法使用了两个具体的辅助任务 (coherence detection 和 sub-summary generation),在基于原始对话总结任务上取得了最优性能,显著超过强基准模型。
Sep, 2021
本文对多方会议情境下的自动摘要这一任务涉及到的难点、数据集以及系统进行了综述,并介绍了未来的研究方向。
Aug, 2022
对于不同的领域来说,长对话摘要的一种模型无法很好地执行各种任务,因此本研究探讨了当前领域内长对话摘要的最新方法和评估指标。
Feb, 2024
该论文介绍了一种新型的多说话者对话摘要生成器,利用大规模的常识知识来促进对话理解和总结生成。实验表明我们的模型能够优化 SAMSum 数据集,并且也能够更好地适用于新领域的零样本实验。
Oct, 2020
本研究针对对话摘要技术所面临的特殊需求,探索处理多个发言者对话识别、否定理解、情景推理和非正式语言理解四大挑战,并使用预先训练的序列到序列语言模型进行实验,通过发言者名称代替、否定范围突出、多任务学习与域内预训练等方法提高摘要表现,超越强基准结果。
本论文旨在通过引入对话行为,设计一种基于句子门控机制的神经摘要模型,以更好地模拟对话行为和摘要之间的关系,从而提高其在 AMI 会议语料库上的性能表现。实验结果表明,所提出的模型相对于现有的基线表现有很大改善,突显出对话行为所提供的交互信号的实用性。
Sep, 2018
本文针对抽象对话摘要的质量和粒度控制问题,提出了一种包含两个主要组成部分和阶段的模型,实现了基于伪标注疑问代词类别和基于组成句法分析提取关键词短语生成初步摘要,并通过自动确定或控制源文本中不同文本片段预测和突出显示给定对话的生成摘要句子数量。在最大的对话摘要语料库 SAMSum 上表现出优越性能,达到了 50.79 的 ROUGE-L 评分,并展示了竞争性高的人类评估结果和可控制的效果。
May, 2021