通过选择有信息量的评论学习观点摘要器
本文提出了一种摘要框架,通过将目标的所有评论压缩为多个密集向量以代替传统的前置筛选步骤,从而最大化地保留所有信息,进而生成更具信息量的摘要,并且采用零样本技术,能够有效地生成根据用户需求定制的摘要,实验结果表明了该模型在 Rotten Tomatoes 数据集上的优越性能。
Sep, 2019
本文介绍了一种基于🈚️ground truth summaries 的情况下,利用文档创建合成数据集、引入多种噪声生成函数以及学习生成原始评论的摘要模型的方法,该方法比抽取式和生成式基线模型都有更好的效果。
Apr, 2020
本文介绍了基于神经网络和机器学习的 Opinion Summarization,主要是关于 customer reviews 的情感摘要,包括自监督、少样本和有监督学习方案,并提出了资源和评估方法。
Jun, 2022
本文提出了一种基于自我训练的抽象化意见摘要方法 OpineSum,该方法使用文本蕴涵的新颖应用程序来捕捉一个项目的各种评论中的意见共识,从而在大规模上获得银标准摘要并训练无监督和少量样本的摘要系统,而在结构中实现了最先进的性能。
Dec, 2022
本文探讨深度学习在抽象性概括方面的成功,以及因评论摘要的训练数据不易获取而引发对依赖人工制作的方法的发展,提出通过采用内容计划的概念在评论摘要既可以获得更高质量的结果,也可以生成自然且更接近于真实世界的摘要 - 评论数据集。
Dec, 2020
本研究提出了 SUBSUMM,一种用于大规模多角度意见摘要的监督式摘要框架,实验证明该框架能够从数百个输入的评论中生成正面、负面和结论性摘要,并且深度分析表明评论子集的先进选择和两阶段训练方案对提高摘要性能至关重要。
Oct, 2023
我们提出了一种无监督的意见摘要方法,该方法将顾客评论中的句子编码到分层离散的潜空间中,然后基于编码的频率识别常见的意见,并通过解码这些频繁的编码生成抽象摘要和通过选择分配给相同频繁编码的句子生成提取摘要
May, 2023
本文介绍了一种自我训练的方法,使用控制代码通过 Transformer 架构将多条评论进行无监督抽象摘要,并通过人工评估表明,该方法生成的摘要具有更高的质量和相关性。
Apr, 2020