Aug, 2022

Z-Code++:用于抽象文摘优化的预训练语言模型

TL;DR本文介绍了一种新的经过预训练的语言模型 Z-Code++, 通过使用三个技术,即两阶段预训练过程,将编码器中的自注意力层替换为解耦注意层以及在编码器中使用融合编码方法,创造了新的最先进的基于文本摘要任务的模型,它在五种语言的 13 个文本摘要任务中有 9 个成为最先进的模型,并且在零样本学习和少样本学习方面远远优于竞争模型。