BriefGPT.xyz
大模型
Ask
alpha
关键词
mask-tuning
搜索结果 - 1
提高预训练语言模型的泛化能力
预训练语言模型 (PLMs) 的可重用性常受到其泛化问题的限制,该问题表现为在评估与训练数据集不同的示例时,性能显著下降,被称为离群 / 未知示例。本文提出了一种名为 Mask-tuning 的训练方法,通过将掩码语言建模 (MLM) 训练
→
PDF
a year ago
Prev
Next