Feb, 2023

将视觉Transformer扩展至220亿参数

TL;DR本文介绍了高效稳定地训练一个22B参数的Vision Transformers(ViT-22B)的方法,并在结果模型上进行了大量实验。ViT-22B展示了在视觉领域实现LLM般的扩展的潜力,并提供了部分实现的关键步骤。