BriefGPT.xyz
大模型
Ask
alpha
关键词
self-attentive transformer-based models
搜索结果 - 1
利用预训练语言模型进行低资源摘要
利用自注意力变换器模型(mBERT, mT5)以及构建新的基准数据集(76.5k 的文章摘要对),在资源有限的语言乌尔都语中,提出了一个自适应低资源摘要方法,能够有效地捕捉低资源语言的上下文信息并取得与英文高资源语言中最先进模型相媲美的评估
→
PDF
9 months ago
Prev
Next