May, 2022

OPT:开放预训练 Transformer 语言模型

TL;DR我们呈现了 Open Pre-trained Transformers (OPT),一个解码器型的预训练 transformers 套件,范围从 125M 到 175B 个参数,这些我们希望与感兴趣的研究人员完全和负责任地分享。 我们展示了 OPT-175B 与 GPT-3 相媲美,同时仅需要 1/7 的碳足迹进行开发。