BriefGPT.xyz
Ask
alpha
关键词
pre-trained multilingual models
搜索结果 - 2
多语言语言模型中研究跨语言传递的高效方法
预训练多语言模型的容量和效果已经得到确认,但对于零样本跨语言转移中的积极或消极转移现象以及语言选择的影响还需进一步理解,本研究提出了一种高效的方法,通过专用适配器单元将下游任务与语言分离,发现一些语言对其他语言影响不大,而一些未在预训练中出
→
PDF
3 months ago
DeMuX:数据高效的多语言学习
优化预训练的多语言模型,在有限的目标数据和注释预算的情况下,使用 DEMUX 框架进行精确的标注点选择,通过距离和不确定性措施选取最具信息量的任务相关邻居,取得优于强基线的效果,特别是在低预算情况下可提高 F1 分数。
PDF
8 months ago
Prev
Next