Dec, 2023

SCLIP:为密集视觉语言推理重新思考自注意力

TL;DR通过引入新的自相关自注意力(CSA)机制,增强了CLIP在语义分割方面的潜力,并且在零样本mIoU方面明显优于现有的SoTA结果和原始的CLIP。