BriefGPT.xyz
大模型
Ask
alpha
关键词
multilingual pre-trained language models
搜索结果 - 21
无监督跨语言适应:序列标注和更多
研究了零样本学习和基于翻译的方法在预训练语言模型(mPTLMs)的跨语言适应性中的应用,提出了一种新的框架来整合这两种方法,通过定制一个预热机制来快速更新 mPTLMs,应用于细化的参数上进行跨语言适应性的实验结果表明,我们的方法有助于各种
→
PDF
4 years ago
Prev
Next