Mar, 2021

视觉语言任务的因果关注

TL;DR本文提出了一种新颖的注意力机制 Causal Attention (CATT),用于消除现有基于注意力的视觉语言模型中一直存在的混淆效应,CATT 可替换任何注意力模块,可大幅提高各种流行的注意力模型的性能,尤其在大规模预训练中具有潜力。