BriefGPT.xyz
Ask
alpha
关键词
pretraining process
搜索结果 - 2
Transformer 语言模型中的句法归纳偏置:对低资源语言特别有帮助吗?
一项关于基于 Transformer 的语言模型(如 BERT)的研究尝试使用语法归纳偏置来增强预训练过程,理论上通过将语法结构融入训练过程可以降低训练所需的数据量。但此类方法通常在高资源语言(如英语)上进行测试。在这项研究中,我们调查了这
→
PDF
8 months ago
EMNLP
多语言语言模型的单 / 跨语言预训练动态分析
本研究旨在探究跨语言预训练模型的学习过程,发现该模型在语言内表现出较高的性能,复杂任务在低级语言技能前学习。添加不同的语言对跨语言转移的学习时机不同,并且最终模型层表现存在时间衰减现象,语言知识向网络底层传递。
PDF
2 years ago
Prev
Next