BriefGPT.xyz
Ask
alpha
关键词
multitask pretraining
搜索结果 - 1
ZeroPrompt:通过扩展预训练任务数到 1,000 项,提高零样本推理能力
本文提出了一种多任务预训练方法 ZeroPrompt,它可以在很多任务上进行训练,并且可以显著提高零样本学习的效率和性能。
PDF
2 years ago
Prev
Next