通过多任务学习、循环翻译等方法,构建神经网络模型用于实现跨语言文本摘要,实验结果证明该模型较传统模型有显著提升。
Aug, 2019
本文介绍了一种使用深度强化学习实现的跨语言文本摘要模型,引入了先前单语言文摘的预训练技术,并得出使用双语语义相似性作为奖励来生成摘要的强化学习模型比强基线效果更好的结论。
Jun, 2020
Transum是一种多任务学习框架,可以将真实数据及伪造数据结合起来用于神经编码器-解码器的训练,达到在汉英和阿拉伯英文摘要、中英、阿拉伯英翻译任务中均获得最佳ROUGE分的效果,此外还对机器翻译任务有积极的影响。
Oct, 2020
使用一种多任务框架和共享解码器的方法,跨语言摘要的跨语言资源匮乏问题得以解决,此方法名为MCLAS。通过MCLAS,实验表明其可以在有限的跨语言资源下,显著优于三种基准模型。
May, 2021
通过跨语言检索,提出跨语言摘要数据集CrossSum及其训练模型,表现出优异的ROUGE和LaSE性能,成为目前最大的跨语言摘要数据集
Dec, 2021
该研究提出了一种线索引导的跨语言自动摘要方法来提高自动生成摘要的质量,并针对手写数据进行了实验评估,取得了较好的结果。
Mar, 2022
本文提出了基于条件变分自编码器的层次模型,用于将一个语言的文档转化为另一个语言的摘要,从而解决了直接进行交叉语言摘要的挑战,实验证明这种方法比现有的方法更为有效和优越。
本研究针对跨语言摘要生成任务进行了全面的系统综述,涵盖数据集、方法和挑战等方面,以便为研究人员提供起点和新想法。
本文研究了跨语言文本摘要中的翻译现象并探究了其对模型性能和评估的影响,提出了建立适合低资源语言的CLS系统的方法,并提供了数据集和模型发展的建议。
Dec, 2022
本文提出了一种多对多摘要(M2MS)的通用框架,可以通过预培训的 Pisces 模型实现任何语言的文档摘要生成,特别在零样本学习中性能显著优于现有算法。
May, 2023