Nov, 2022
Castling-ViT: 基于线性-角度注意力切换的视觉Transformer推理压缩自注意力
Castling-ViT: Compressing Self-Attention via Switching Towards
Linear-Angular Attention During Vision Transformer Inference
TL;DR本文提出了一种名为Castling-ViT的框架,该框架结合使用线性角度注意力和掩码Softmax的二次注意力模块,旨在同时学习全局和局部上下文,但在ViT的推理过程中仅使用线性角度的注意力模块,实现了降低计算量、提高精度的优化效果。