Feb, 2023

将视觉 Transformer 扩展至 220 亿参数

TL;DR本文介绍了高效稳定地训练一个 22B 参数的 Vision Transformers(ViT-22B)的方法,并在结果模型上进行了大量实验。ViT-22B 展示了在视觉领域实现 LLM 般的扩展的潜力,并提供了部分实现的关键步骤。