CVPRNov, 2022

Castling-ViT: 基于线性 - 角度注意力切换的视觉 Transformer 推理压缩自注意力

TL;DR本文提出了一种名为 Castling-ViT 的框架,该框架结合使用线性角度注意力和掩码 Softmax 的二次注意力模块,旨在同时学习全局和局部上下文,但在 ViT 的推理过程中仅使用线性角度的注意力模块,实现了降低计算量、提高精度的优化效果。