Oct, 2022

利用异构加速预训练技术优化和推进中文自然语言理解

TL;DR本文提出了中文知识增强的预训练语言模型 CKBERT,其中包括语言感知的掩模语言模型和对比多跳关系模型等预训练任务。通过实验对比发现,CKBERT 在各种基准 NLP 任务和不同模型尺寸方面均优于强负载。