关键词monolingual pretraining
搜索结果 - 3
- 通过跨语言知识传递向羊驼教授一门新语言
该研究探索了以成本效益的方法来适应新的低资源语言的事先训练的大型语言模型(LLMs),特别关注爱沙尼亚语。通过利用 Llama 2 模型,我们研究了将跨语言指令调整与额外的单语预训练相结合的影响。我们的结果表明,即使是相对较少的额外单语预训 - Sabiá:葡萄牙语大语言模型
在这篇论文中,我们证明了在目标语言上进行单语言预训练可以显著提高已经广泛训练于多个语料库的模型,并在 14 个葡萄牙语数据集上表现优于基于英语和多语言模型的模型。我们的结果表明,从单语预训练获得的大多数收益来自于领域特定知识。
- 神经机器翻译中成语的自动评估和分析
本文探讨了神经机器翻译中存在的习语翻译难题,提出了一个新的自动化量化习语翻译错误的方法,并通过对模型的训练以及不同翻译测试集的测试,探索了单语预训练和习语上下文因素对翻译质量的影响。