BriefGPT.xyz
大模型
Ask
alpha
关键词
multilingual pretrained language model
搜索结果 - 3
生成任务中有效的零射击跨语言知识转移的关键要素
零 - shot 跨语言生成的前提是在一个语言上对多语言预训练语言模型进行微调,并将其用于其他语言的生成任务中。先前的研究注意到生成错误语言的频繁问题,并提出了解决方法,通常使用 mT5 作为基础模型。本研究在统一设置下比较了文献中提出的各
→
PDF
4 months ago
预训练的多语言语言模型在零差生成中的实证研究
通过在一个语言上对多语言预训练语言模型(mPLM)进行微调,再在其他语言上使用它进行预测,零样本跨语言生成通常会出现使用错误语言生成的问题,本研究测试了替代的 mPLMs(如 mBART 和 NLLB),考虑到全微调和适配器参数高效微调,并
→
PDF
9 months ago
使用适配器实现跨语言稠密检索的高效零 - shot 转移
本文研究了利用 adapters 实现单语言检索模型的跨语言迁移,证明了使用 adapters 的密集检索模型在语言迁移方面比整个模型 fine-tuning 更加有效。
PDF
2 years ago
Prev
Next