BriefGPT.xyz
Ask
alpha
关键词
pretraining efficiency
搜索结果 - 2
基于 PMI 的相关跨度掩码
通过对点对互信息的概念提出了 PMI-Masking,该结构代替了以往不合理的随机掩码方法,实验结果表明在预训练的效率和下游任务性能上有所提高
PDF
4 years ago
对比自监督学习的高效数据预训练
本文提出了一种基于对比学习的文本编码器,利用 60MB 的任务内文本数据进行预训练,相较于利用 160GB 的任务外文本进行预训练的 RoBERTa 模型,在预训练效率、数据和计算资源利用率、以及算法公正性方面有了显著提高。
PDF
4 years ago
Prev
Next