Aug, 2023

MB-TaylorFormer:基于 Taylor 公式扩展的多分支高效 Transformer 用于图像去雾

TL;DR近年来,Transformer 网络开始取代纯卷积神经网络在计算机视觉领域的应用,但是其二次计算复杂度的 softmax-attention 限制了高分辨率图像去雾任务的广泛应用。因此,我们提出了一种新的 Transformer 变体,应用泰勒展开逼近 softmax-attention,实现了线性计算复杂度,并引入了多尺度注意力细化模块和多分支架构以及多尺度补丁嵌入方法进一步改进 Transformer 的性能。我们的模型名为 MB-TaylorFormer,在补丁嵌入阶段可以更灵活地嵌入粗糙到细粒度的特征,并以有限的计算成本捕捉远距离像素之间的相互作用。实验证明,MB-TaylorFormer 在多个去雾基准上取得了最先进的性能,并具有轻量级的计算负担。源代码和预训练模型可在此 https URL 获得。