Oct, 2020

跨语言摘要的混合语言预训练

TL;DR使用混合语言预训练的交叉语言文摘模型,在没有任务特定组件的情况下利用单语数据提高语言建模的效果,实现了高效的跨语言文摘。在Neural Cross-Lingual Summarization数据集中,我们的模型在英汉和汉英模式下相比现有技术,分别实现了2.82和1.15 ROUGE-1分数的提升。