Feb, 2021

TransGAN:用两个纯 Transformer 构建强大的 GAN,并且可以不断拓展规模

TL;DR该论文通过引入基于 transformers 的新型结构 TransGAN, 从而实现在图像生成任务中不使用卷积神经网络,其中,使用 grid self-attention 模块来缓解内存瓶颈,并通过数据扩增、修正归一化和相对位置编码等一系列技术缓解了训练不稳定问题。该模型在高分辨率图像生成上取得了极具竞争力的表现,并且在 STL-10 数据集上创造了 10.43 的 Inception Score 和 18.28 的 FID 值。