BriefGPT.xyz
大模型
Ask
alpha
关键词
pretraining data size
搜索结果 - 2
ACL
多语言语言模型的绩效驱动因素是什么?
通过研究 204 种语言的多语言大型语言模型(MLLMs)在不同语言上的表现,考察了预训练数据大小、资源可用性、语言家族和脚本类型等因素对模型性能的影响,并发现对于已知语言来说,预训练数据大小是最重要的因素,而对于未知语言来说,脚本类型和语
→
PDF
2 months ago
EMNLP
语言模型需要多少预训练数据才能学习语法?
本研究探讨了预训练数据大小对 RoBERTa 模型的句法能力及其在下游应用中的影响,并分析了训练此类模型的成本效益权衡。结果显示,虽然预训练数据大小的增加会显著提高模型的句法能力及在下游任务中表现,但这也带来了更高的经济和环境成本。
PDF
3 years ago
Prev
Next