BriefGPT.xyz
Ask
alpha
关键词
roberta-base architecture
搜索结果 - 1
WangchanBERTa:基于 Transformer 的泰语语言模型的预训练
在泰语这种资源相对较少的语言中,我们使用 RoBERTa-base 架构对大型、去重、清理后的训练集进行预训练,并研究了不同的标记化方式对下游性能的影响,在人工注释的单语境中,我们的模型 wangchanberta-base-att-spm
→
PDF
3 years ago
Prev
Next