BriefGPT.xyz
大模型
Ask
alpha
关键词
unseen languages
搜索结果 - 4
大型语言模型的即时无预测学习
通过提示方式,使用词典和仅有的 5K 个平行句子, extsc {DiPMT++} 能够将 GPT-4 的性能从 0 提升到 16 BLEU,从而显著改善中文到壮语翻译,并实现 32 BLEU 的壮语到中文翻译,同时在帮助人类翻译完全不熟悉
→
PDF
4 months ago
LinguAlchemy: 将语言类型学和地理元素融合实现未知语言泛化
引入 LinguAlchemy 解决预训练语言模型在未知语言上的泛化问题,通过考虑语言的不同方面,显著提高了 mBERT 和 XLM-R 对未知语言的准确性,实现了更好的跨语言泛化。
PDF
6 months ago
ACL
极低资源神经机器翻译的连续混合语言预训练
本文提出了一种连续预训练 (CPT) 框架来应对低资源语言中看不见的语言,通过使用目标语言的单语语料库构建混合语言文本并继续对 mBART 进行预训练以优化低资源翻译任务,结果表明我们的方法能够持续提高翻译性能。
PDF
3 years ago
ACL
多语言语言模型处理新语言的挑战:从 mBERT 不可见开始
通过比较多语言和单语言模型,本文表明了在大量的原始数据上使用基于预训练语言模型的迁移学习在处理未见过的语言中存在多种行为,其中一些语言能够从迁移学习中受益,而另一些则似乎不行,我们还发现这种无法传递的失败很大程度上与用于书写这些语言的字符的
→
PDF
4 years ago
Prev
Next