基于一致性损失的评论摘要和情感分类统一双视图模型
提出了一种使用分层端到端模型联合学习文本摘要和情感分类的方法,将情感分类标签视为文本摘要输出的进一步 “摘要”,实现了摘要和分类两个任务的统一,该模型在亚马逊在线评论数据集上表现优于强基准系统。
May, 2018
研究人员提出了一种统一模型,结合抽取性与生成性摘要的优势,通过句子级别的关注来调节单词级别的关注,采用新型的不一致损失函数,通过端到端的训练,实现了在 CNN / 每日邮报数据集上最先进的 ROUGE 分数和最信息化和可读性的摘要。
May, 2018
文中介绍了一种从在线产品评论中进行意见摘要的神经框架,该方法是知识瘦身的,只需要轻量级的监督,包括产品领域标签和用户提供的评分。方法结合了两个弱监督组件(一个偏向提取器和一个基于多实例学习的情感预测器),从多个评论中识别显著观点并形成提取式摘要。研究介绍了包括六个不同领域的产品评论的训练集以及具有黄金标准方面注释、显著标签和意见摘要的人工注释开发和测试集的意见摘要数据集。自动评估显示该方法相对于基线的显著改进,大规模研究表明根据多个标准,人类评判员更喜欢该方法的意见摘要。
Aug, 2018
本研究提出了一个新颖的统一模型来解决目标基情感分析的任务,其应用了统一的标记方案,并且使用两个堆叠的循环神经网络来提高主任务的性能,并通过门机制维护观点目标内的情感一致性,在三个基准数据集上实验结果表明该框架具有优异的效果。
Nov, 2018
我们提出了一个名为 MultimodalSum 的自监督多模态意见摘要框架,它利用非文本数据如图像和元数据,通过分别为每种模态使用单独的编码器来获得每种模态的表征,并使用文本解码器生成摘要,最终通过多模态训练管道来融合多模态信息以提高摘要生成效果。在 Yelp 和 Amazon 数据集上的实验结果表明 MultimodalSum 的优越性。
May, 2021
在电子商务中,通过引入额外的信息源和自主训练的方法,我们提出了一种新颖的综合数据集创建策略来生成观点摘要。我们的模型采用了多编码器解码器框架,针对每个信息源使用一个编码器以在生成摘要时实现有效信息选择。实验证明,我们的方法与目前的最佳模型相比,在 ROUGE-1 F1 指标上平均提高了 14.5%。此外,人工评估结果显示,MEDOS 模型在连贯性和流畅性方面相对较高,分别为 0.41 和 0.5(-1 到 1 的评分),相较于现有模型具有更高的质量。据我们所知,我们是第一个利用额外信息源进行自主训练生成观点摘要的研究。
Apr, 2024
该论文提出了比较意见摘要任务,即从两个不同的候选评论集中生成两个对比摘要和一个共同摘要。作者开发了一个比较摘要框架 CoCoSum,可以更好地生成对比和共同摘要。
Oct, 2021
本文提出了一种新的神经网络框架来编码用户和产品信息,并通过注意力机制将两种信息结合起来进行训练和预测,在 IMDB 和 Yelp 的数据集上显著优于其他最先进的方法。通过对用户或产品相关单词的注意力可视化,验证了对两种信息在情感分类中起着不同作用的观察结果。
Jan, 2018