Apr, 2024

Mansformer:用于图像去模糊及其它任务的高效混合注意力转换器

TL;DR我们提出了 Mansformer,它是一种结合了多种自注意力、门控和多层感知的混合加权 Transformer,通过对张量形状和维度进行精心调整,将典型的二次复杂度自注意力分解成四次线性复杂度操作,并利用类似 Squeeze-and-Excitation Networks 的架构实现了这些不同类型自注意力的自适应融合,通过提出的门控 - dconv MLP 将两阶段的 Transformer 设计合并为一阶段,主要用于图像去模糊,经过广泛的定量和定性评估,表明该方法在远远超过简单去模糊的最先进方法方面表现出色,源代码和训练模型将提供给公众。