BriefGPT.xyz
大模型
Ask
alpha
关键词
multitask prompted finetuning
搜索结果 - 3
BLOOM: 一种含 176B 个参数的多语言开放访问语言模型
BLOOM 是一个 176B 参数的解码器 - 只有 Transformer 语言模型,它使用 ROOTS 语料库进行训练,并在多任务提示微调后达到了竞争力强的结果。该研究呼吁公开此类研究并在负责任的 AI 许可下发布其模型和代码,以便未来
→
PDF
2 years ago
多任务微调实现跨语言通用化
研究发现多任务 finetuning 可以帮助大型多语言模型成功推广至非英语任务中,并且使用机器翻译英文为前缀可以获得更好的性能,最终实现零 - shot 的结果。
PDF
2 years ago
零 - shot 泛化哪种语言模型架构和预训练目标最佳?
通过大规模模型比较和实验验证,本文发现预训练的 Transformer 模型在自然语言处理任务的零样本泛化能力中,部分结构和预训练目标优于其他模型,这为模型架构和目标选择提供了指导。同时,本文研究了预训练模型跨结构和目标的迁移,并提供源代码
→
PDF
2 years ago
Prev
Next