会议摘要的动态滑动窗口
本文提出了一种新颖的抽象会议摘要网络,采用分层结构和角色向量来处理会议记录,并在大规模新闻摘要数据上预训练模型,实现了在 ICSI 数据集上自动指标和人工评价方面的表现优于之前的方法。
Apr, 2020
本文介绍了一种新颖且有效的自动生成会议摘要的方法,采用递归生成摘要和并行应用行动项提取算法来生成行动项驱动的抽象会议摘要;同时引入了三种划分长篇会议记录成主题部分的方法,以提高算法的时间效率,并解决大语言模型遗忘长期依赖的问题。实验结果在 AMI 语料库上取得了 64.98 的 BERTScore,相对于精调的 BART 模型,提高了约 4.98% 的准确度。
Dec, 2023
本文介绍了一种基于整数线性规划的句子融合方法,用于从多个发言中提取重要内容生成摘要,并实验证明该方法能够生成比现有基准更为信息丰富的自动生成会议记录的摘要。
Sep, 2016
本文提出了一种名为 SVB 的会议摘要方法,采用滑动窗口对话恢复和得分、频道重要性得分投票和相对位置分桶算法等三种技术,能够在不需要大规模预训练或专业标注工具的情况下,准确高效地压缩冗余信息并保留重要内容,从而优于现有的会议摘要方法。
May, 2023
文本摘要是自然语言处理领域的一个著名应用,可以自动根据给定的上下文生成带有重要信息的摘要,特别适用于会议总结等多主题、多人参与的长篇文档。我们提出了 Locater 模型用于提取有关片段,然后通过 Summarizer 模型进行总结,并应用不同的词嵌入技术进行了比较研究以提高摘要的一致性。
Feb, 2024
本文探索了对话摘要的三种策略:扩展变压器模型、检索后摘要流水线模型和分层对话编码模型,并在三个长对话数据集(QMSum、MediaSum、SummScreen)上进行了实验。结果表明,检索后摘要流水线模型具有最佳性能,并说明强大的检索模型和基于外部摘要数据集的预训练可以进一步提高摘要质量。
Sep, 2021
我们提出了一种新颖的基于图形的框架,用于摘要会议演讲,完全不需要监督和任何注释。我们的工作结合了多种最近的方法的优点,同时解决了它们的弱点。此外,我们利用最近在 NLP 中应用的字嵌入和图形退化的进展,考虑外部语义知识,并设计了自定义的多样性和信息量度量。在 AMI 和 ICSI 语料库上的实验表明,我们的系统改进了现有技术水平。代码和数据可公开获取,我们的系统可以交互式测试。
May, 2018
提出了一种利用 Q-Former 作为音频 - 文本模态连接器、采用大型语言模型从语音特征直接生成文本摘要的端到端 SSum 模型,并采用多阶段训练方法来提高模型处理长篇语音的能力,最终在 How-2 数据集上取得了具有竞争力的性能。
Jul, 2024
本文提出一种基于块模型的方法,允许在增量方式下在非常长的音频序列上训练语音摘要模型,并能够通过数据流处理更新模型。实验表明,所提出的块模型训练方法相对于截断输入基线,可以在 ROUGE-L 指标上提高 3 个百分点。
Jul, 2023