BriefGPT.xyz
大模型
Ask
alpha
关键词
multilingual instruction tuning
搜索结果 - 3
多语言预训练和指导微调在跨语言知识对齐中的改进,但仅限于浅层
通过跨语言知识对齐(cross-lingual knowledge alignment)的绩效(Performance)、一致性(Consistency)和传导度(Conductivity)来评估大型语言模型(LLMs)中多语言预训练和指令
→
PDF
3 months ago
将以英语为中心的 LLMs 转变为多语种模型:需要多少语言能力?
通过与只使用英文进行微调的模型相比较,研究发现只使用三种语言进行多语种微调可以显著提高模型在生成式任务上的跨语言转移能力,而在高度结构化的任务上影响较小。
PDF
6 months ago
Okapi: 指令调整的多语言大型语言模型及基于人类反馈的强化学习
Okapi 是第一个基于 RLHF 进行多语言指导调整的系统,引入 26 种不同语言的指导和回应排序数据,以促进未来多语言 LLM 研究的实验和发展。
PDF
a year ago
Prev
Next