BriefGPT.xyz
大模型
Ask
alpha
关键词
supervised instruction tuning
搜索结果 - 1
对大型语言模型进行少样本多语言 NLU 分析与适应:如今已经达到目标了吗?
三种常用方法,即监督微调、监督指令微调和上下文学习,是少样本学习的三种替代方法。本文对这三种方法进行了广泛而系统的比较,测试了六种高低资源语言、三种不同的 NLU 任务以及各种语言和领域设置。观察结果显示,监督指令微调在性能和资源需求方面具
→
PDF
4 months ago
Prev
Next