我们提出了一种新颖的基于图形的框架,用于摘要会议演讲,完全不需要监督和任何注释。我们的工作结合了多种最近的方法的优点,同时解决了它们的弱点。此外,我们利用最近在 NLP 中应用的字嵌入和图形退化的进展,考虑外部语义知识,并设计了自定义的多样性和信息量度量。在 AMI 和 ICSI 语料库上的实验表明,我们的系统改进了现有技术水平。代码和数据可公开获取,我们的系统可以交互式测试。
May, 2018
本文介绍了两种新颖的方法,利用大量外部文本摘要数据为 E2E SSum 训练提供支持,分别是使用 TTS 系统生成合成语音进行训练,以及使用输入音素序列而非合成语音直接训练模型。实验证明,这些方法在 How2 数据集上改进了多个指标,并且是第一篇使用外部语言资源进行 E2E SSum 的工作。
Mar, 2023
本文对多方会议情境下的自动摘要这一任务涉及到的难点、数据集以及系统进行了综述,并介绍了未来的研究方向。
Aug, 2022
本文介绍了一种基于整数线性规划的句子融合方法,用于从多个发言中提取重要内容生成摘要,并实验证明该方法能够生成比现有基准更为信息丰富的自动生成会议记录的摘要。
Sep, 2016
HyperSum 是一种提取式摘要框架,能够结合传统词汇摘要的效率和现代神经网络方法的准确性,通过利用在极高维度 (“维度祝福”) 上对向量进行随机初始化时出现的伪正交现象来构建具有代表性和高效的句子嵌入。通过简单地聚类所获取的嵌入并提取它们的中心,可以得到有竞争力的摘要。HyperSum 在摘要的准确性和可信度方面往往优于最先进的摘要器,同时速度快 10 至 100 倍。我们将 HyperSum 开源作为无监督的提取式摘要的强基准。
May, 2024
本文提出了一个基于视频讲座的英语口语文本摘要的基准数据集 VT-SSum,该数据集包含 9,616 个视频的 125K 个口语文本 - 摘要对,使用该数据集进行的实验结果表明,与 AMI 标准相比,使用 VT-SSum 进行训练的深度学习模型能够显著提高对口语文本的摘要质量。
Jun, 2021
本文提出在端对端语音摘要(E2E SSum)模型中集成预训练语言模型来解决数据稀缺问题,并通过迁移学习来减少编解码器之间的差距。实验证明,该模型表现优于基线和数据增强模型。
Jun, 2023
将语音文字(S2T)摘要分为级联和端到端两种模型,并使用预训练的 T2T 摘要提取器进行迁移学习,进而将其应用于在线上传的广播新闻中。结果表明,端到端模型要略逊于级联模型,但都优于提取式基线模型。
本文提出了一种新颖的抽象会议摘要网络,采用分层结构和角色向量来处理会议记录,并在大规模新闻摘要数据上预训练模型,实现了在 ICSI 数据集上自动指标和人工评价方面的表现优于之前的方法。
Apr, 2020
本研究发现会议摘要的句子与会议议程有关,基于此提出了一种动态滑动窗口策略来解决长会议记录的自动文本摘要问题。实验结果表明,相较于传统模型,该方法获得了更高的文本一致性。
Aug, 2021