支持话语流建模和事实规范化的对话摘要
本论文旨在通过引入对话行为,设计一种基于句子门控机制的神经摘要模型,以更好地模拟对话行为和摘要之间的关系,从而提高其在 AMI 会议语料库上的性能表现。实验结果表明,所提出的模型相对于现有的基线表现有很大改善,突显出对话行为所提供的交互信号的实用性。
Sep, 2018
本文探讨了抽象文本摘要中生成内容与原文义不相符的问题,并提出了以正则化为基础的序列到序列模型和实用人工评估方法以解决问题。实验结果表明,该方法在提高人工评估的语义一致性方面比以前的模型有效。
May, 2018
本研究提出了 FlowSUM,一种基于正则化流的变分编码器 - 解码器框架,用于 Transformer-based 摘要。我们的方法解决了变分摘要中两个主要挑战:潜在表示中的语义信息不足和训练期间的后验崩溃。为了解决这些挑战,我们采用正则化流来实现灵活的潜在后验建模,并提出了一种改进的门机制控制交替激进训练(CAAT)策略。实验结果表明,FlowSUM 显著提高了生成摘要的质量,并在对推理时间几乎没有影响的情况下释放了知识蒸馏的潜力。此外,我们研究了正则化流中的后验崩溃问题,并分析了训练策略、门初始化以及所使用的正则化流的类型和数量对摘要质量的影响,为未来的研究提供了有价值的见解。
Nov, 2023
本研究针对对话摘要技术所面临的特殊需求,探索处理多个发言者对话识别、否定理解、情景推理和非正式语言理解四大挑战,并使用预先训练的序列到序列语言模型进行实验,通过发言者名称代替、否定范围突出、多任务学习与域内预训练等方法提高摘要表现,超越强基准结果。
Sep, 2021
本文探索了对话摘要的三种策略:扩展变压器模型、检索后摘要流水线模型和分层对话编码模型,并在三个长对话数据集(QMSum、MediaSum、SummScreen)上进行了实验。结果表明,检索后摘要流水线模型具有最佳性能,并说明强大的检索模型和基于外部摘要数据集的预训练可以进一步提高摘要质量。
Sep, 2021
对话摘要任务涉及在保留最显著信息的同时对长对话进行总结。实际生活中的对话经常会出现自然发生的变化(例如,重复、犹豫),现有的对话摘要模型在此类对话上的性能下降。本研究系统地研究了此类变化对最先进的对话摘要模型的影响,使用公开可用数据集。为了模拟真实生活中的变化,我们引入了两种类型的扰动:以错误和语言变化更改单个话语的话语级扰动,以及添加非信息性交流(例如,重复、问候)的对话级扰动。我们沿着一致性、显著性和忠实度三个鲁棒性的维度进行分析,这些维度捕捉了摘要模型性能的不同方面。我们发现,输入变化会影响精调模型和指导模型,而后者更容易受到影响,特别是在对话级扰动方面。我们还通过人工评估验证了我们的发现。最后,我们研究了使用部分扰动数据对精调模型的鲁棒性是否可以提高,并观察到这种方法对于解决当前模型中的鲁棒性挑战不足,因此需要更彻底的研究来找到更好的解决方案。总体而言,我们的工作强调对话摘要中的鲁棒性挑战,并为未来的研究提供了见解。
Nov, 2023
该研究提出了一种新的基于 Transformer 的 Co-opNet 框架,旨在消除抽象摘要生成中存在的一些问题,如虚构信息,连贯性问题,流故事性等,并通过实验证明,其与竞争基线相比,具有显著的全局连贯性。
Jul, 2019