T-former:一种高效的图像修复变形器
本文提出了一种名为 Restoration Transformer 的有效 Transformers 模型,通过几个关键设计,使其能够捕捉长距离像素交互,同时仍适用于大图像,在图像去噪、去模糊和降雨方面达到了最先进的效果。
Nov, 2021
本文介绍了 Uformer - 一种基于 Transformer 的高效图像恢复架构,在其中构建了使用 Transformer 块的分层编码器 - 解码器网络。使用局部增强窗口 (LeWin) Transformer 块和多尺度恢复调制器,Uformer 具有高效捕获局部和全局图像依赖性的能力,可用于多种图像恢复任务,并在实验证明与最先进的算法相比具有卓越的性能。
Jun, 2021
通过构建 CNN 式 Transformer(ConvFormer)来提升更好的注意力收敛,从而获得更好的分割性能。
Sep, 2023
本文提出了一种称为 Dilated Transformer 的方法,该方法在全球和局部范围内交替捕捉成对的补丁关系进行自我关注。我们基于 Dilated Transformer 的设计构建了一种名为 D-Former 的 U 型编码器 - 解码器分层结构,用于 3D 医学图像分割。实验表明,我们的 D-Former 模型在低计算成本下,从头开始训练,优于各种有竞争力的基于 CNN 或 Transformer 的分割模型。
Jan, 2022
本文提出了一种基于 transformer 的大孔修复模型,它结合了大尺寸的图像处理和 transformer 的优势,通过在注意力模块中定制面向修复的 transformer 块并使用动态掩码来聚合非局部信息,得到了在多个基准数据集上最先进的效果。
Mar, 2022
本文提出了一种新的方法 HiFormer,它通过使用 Swin Transformer 模块和基于 CNN 的编码器设计了两种多尺度特征表示来有效地跨越 CNN 和 Transformer 进行医学图像分割。在编码器解码器结构的跳跃连接中,我们提出了 Double-Level Fusion(DLF)模块,以确保从两个上述表示中获得的全局和局部特征的细粒度融合。在各种医学图像分割数据集上的广泛实验表明,HiFormer 在计算复杂度、定量和定性结果方面优于其他基于 CNN、Transformer 和混合方法。
Jul, 2022
FuseFormer 是一种针对视频修复任务的 Transformer 模型,通过使用细粒度特征融合的新型软分割和软组合操作,实现了更加有效的特征传播和内容合成,优于现有技术方法。
Sep, 2021
该论文提出了一种基于注意力机制的变形器模型依次恢复整体图像结构,利用一个附加的结构修复器,通过零初始化残差加法有效地集成预训练修补模型,采用掩膜位置编码策略提高了不规则掩膜修补效果。
Mar, 2022
本文提出使用受自我监督预训练的 MAE 方法,作为 inpainting 模型的新骨架,并加入 MAE 注意先验,以增强 inpainting 模型的长距离依赖性,验证结果显示该方法在 Places2 和 FFHQ 上都取得了较好的效果。
Aug, 2022
近年来,Transformer 网络开始取代纯卷积神经网络在计算机视觉领域的应用,但是其二次计算复杂度的 softmax-attention 限制了高分辨率图像去雾任务的广泛应用。因此,我们提出了一种新的 Transformer 变体,应用泰勒展开逼近 softmax-attention,实现了线性计算复杂度,并引入了多尺度注意力细化模块和多分支架构以及多尺度补丁嵌入方法进一步改进 Transformer 的性能。我们的模型名为 MB-TaylorFormer,在补丁嵌入阶段可以更灵活地嵌入粗糙到细粒度的特征,并以有限的计算成本捕捉远距离像素之间的相互作用。实验证明,MB-TaylorFormer 在多个去雾基准上取得了最先进的性能,并具有轻量级的计算负担。源代码和预训练模型可在此 https URL 获得。
Aug, 2023