May, 2022

OPT:开放预训练Transformer语言模型

TL;DR我们呈现了Open Pre-trained Transformers (OPT),一个解码器型的预训练transformers套件,范围从125M到175B个参数,这些我们希望与感兴趣的研究人员完全和负责任地分享。 我们展示了OPT-175B与GPT-3相媲美,同时仅需要1/7的碳足迹进行开发。