本文探索了对话摘要的三种策略:扩展变压器模型、检索后摘要流水线模型和分层对话编码模型,并在三个长对话数据集(QMSum、MediaSum、SummScreen)上进行了实验。结果表明,检索后摘要流水线模型具有最佳性能,并说明强大的检索模型和基于外部摘要数据集的预训练可以进一步提高摘要质量。
Sep, 2021
对于不同的领域来说,长对话摘要的一种模型无法很好地执行各种任务,因此本研究探讨了当前领域内长对话摘要的最新方法和评估指标。
Feb, 2024
该论文提出了一种能够精确控制文本长度的文本生成框架,可以生成指定数量的词语或句子的摘要,且在维持或提高文本质量的同时,通过联合训练模型预测长度,实现生成最佳长度的摘要。作者对该框架在 CNNDM 数据集上进行了评估,结果表明其性能优于现有方法。
May, 2023
研究通过改变发言长度对对话模型生成回复质量的影响,发现在某些类型的对话中,可以将发言长度减少高达 72%,而不会对生成的回复质量产生明显影响。
Jan, 2024
对话摘要化是将原始对话压缩成涵盖重要信息的短版,用于减轻对话数据负载,本研究从多个领域(包括会议,聊天,电子邮件,客户服务和医疗对话)全面系统地调查了对话摘要化的现状和研究进展,包括可用于研究数据集的总览和两个排行榜,并提出了一些未来的研究方向,如忠实度、多模态、多领域和多语言对话摘要化。
Jul, 2021
本文提出一种基于 CTC 模型的动态规划算法,用于实现汉字级别的摘要长度控制,在提高 ROUGE 分数的同时保证摘要完整。
May, 2022
本研究针对对话摘要技术所面临的特殊需求,探索处理多个发言者对话识别、否定理解、情景推理和非正式语言理解四大挑战,并使用预先训练的序列到序列语言模型进行实验,通过发言者名称代替、否定范围突出、多任务学习与域内预训练等方法提高摘要表现,超越强基准结果。
本文提出引入不同层次的人类反馈,结合增强学习以提高抽象对话摘要的质量。实验表明,该方法在人类判断方面优于监督式基线,并能提高摘要质量。
Dec, 2022
本研究发现会议摘要的句子与会议议程有关,基于此提出了一种动态滑动窗口策略来解决长会议记录的自动文本摘要问题。实验结果表明,相较于传统模型,该方法获得了更高的文本一致性。
Aug, 2021
本文提出了一种新的长度可控的抽象汇总模型,与以往仅根据编码器 - 解码器模型生成一篇总结不同,我们的模型在编码器 - 解码器模型中结合了单词级别的抽取模块,通过提取重要的词来控制长度,生成了一个同时具有信息和长度控制的汇总。
Jan, 2020