May, 2024

DiG: 基于门控线性注意力的可扩展高效扩散模型

TL;DR本文基于 Gated Linear Attention Transformers 构建一个可用于扩展预训练扩散模型的简单、易于采用的解决方案,其在效率和效果上优于 Diffusion Transformers 模型。