对于不同的领域来说,长对话摘要的一种模型无法很好地执行各种任务,因此本研究探讨了当前领域内长对话摘要的最新方法和评估指标。
Feb, 2024
使用大型语言模型递归生成摘要 / 记忆,从而提高长期记忆能力,进而解决开放领域对话系统中遗忘重要信息的问题。实验证明,该方法可以在长对话环境中生成更加一致的回应。
Aug, 2023
本文介绍了一个大型的任务导向对话摘要数据集 (TODSum),并提出了一种基于对话状态的结构化对话摘要模型来提高生成摘要的忠实度,证明了对话结构引导的有效性,并讨论了 TODSum 的当前问题和未来的发展方向。
Oct, 2021
该论文提出了一种基于神经检索 - 阅读 (Retrieval-Reading) 系统和基于 TFIDF 的文本摘要技术来利用先前的谈话历史中的潜在知识的方法,以便更好地回答问题,并且实验证明该系统显著提高了回答质量。
Dec, 2022
本文介绍一种使用预处理的深度语境化文本编码器 BERT 来改善自然语言任务,包括抽象概括,并提出一种自我监督的方法来弥补对话概括模型的缺陷。在共享的编码器 - 解码器架构上构建和微调抽象对话概括模型,并在最近引入的 SAMSum 语料库中经验性地评估,证明我们的方法在抽象概括中做出了改进。
Sep, 2022
本文提出引入不同层次的人类反馈,结合增强学习以提高抽象对话摘要的质量。实验表明,该方法在人类判断方面优于监督式基线,并能提高摘要质量。
对话摘要化是将原始对话压缩成涵盖重要信息的短版,用于减轻对话数据负载,本研究从多个领域(包括会议,聊天,电子邮件,客户服务和医疗对话)全面系统地调查了对话摘要化的现状和研究进展,包括可用于研究数据集的总览和两个排行榜,并提出了一些未来的研究方向,如忠实度、多模态、多领域和多语言对话摘要化。
Jul, 2021
本研究针对对话摘要技术所面临的特殊需求,探索处理多个发言者对话识别、否定理解、情景推理和非正式语言理解四大挑战,并使用预先训练的序列到序列语言模型进行实验,通过发言者名称代替、否定范围突出、多任务学习与域内预训练等方法提高摘要表现,超越强基准结果。
Sep, 2021
提出了 DialogSum,一种大规模标注的对话摘要数据集,通过对该数据集使用最先进的神经摘要器进行经验分析,结果表明对话摘要中存在诸如口语术语、特殊话语结构、代词和省略、语用学和社会常识等独特挑战,需要特定的表示学习技术来更好地处理。
May, 2021
本文探索了对话摘要的三种策略:扩展变压器模型、检索后摘要流水线模型和分层对话编码模型,并在三个长对话数据集(QMSum、MediaSum、SummScreen)上进行了实验。结果表明,检索后摘要流水线模型具有最佳性能,并说明强大的检索模型和基于外部摘要数据集的预训练可以进一步提高摘要质量。