Oct, 2023

利用预训练语言模型进行低资源摘要

TL;DR利用自注意力变换器模型(mBERT, mT5)以及构建新的基准数据集(76.5k 的文章摘要对),在资源有限的语言乌尔都语中,提出了一个自适应低资源摘要方法,能够有效地捕捉低资源语言的上下文信息并取得与英文高资源语言中最先进模型相媲美的评估结果。