本论文研究了在极端卷积核上训练和验证了能够光滑扩展卷积核的方法,提出了一种基于此方法的纯卷积神经网络结构 SLaK,可以在图像分类和各种下游任务中实现与分层变压器和现代 ConvNet 结构相当甚至更好的性能表现。
Jul, 2022
基于深度学习技术的大核变压器模型用于红外图像的高分辨率处理,超过了当前最先进的方法,参数更少性能更优。
Jan, 2024
通过引入 Convolutional Transformer 层(ConvFormer)和基于 ConvFormer 的超分辨率网络(CFSR),提出了一种有效且高效的轻量级图像超分辨率任务解决方案,通过使用大卷积核卷积作为特征混合器替代自注意模块,实现了较长范围依赖关系和广泛接受域的建模,同时在计算成本稍微增加的情况下保留了更多高频信息,并且相对于现有的轻量级 SR 方法在计算成本和性能之间取得了先进的平衡。
利用大内核设计提高图像超分辨率模型性能并降低计算成本的研究中,我们提出了一种名为大内核蒸馏网络(LKDN)的方法,通过简化模型结构和引入更高效的注意力模块来降低计算成本并提高模型性能。实验结果表明,LKDN 优于现有的轻量级超分辨率方法,并实现了当前最佳性能。
Jul, 2024
本文提出了一种新的图像超分辨率方法,该方法使用端到全部可训练的深度卷积神经网络来联合学习特征提取、上采样和高分辨率重建模块,同时在潜在特征空间中进行上采样,并通过多尺度 HR 重建以获得更精确的图像恢复,进一步实现了不同网络设计在图像超分辨率中的贡献并为未来的研究提供了更多见解。
Jul, 2016
本文提出一种卷积神经网络,该网络的特征图在低分辨率空间中提取,使用高效的子像素卷积层将最终的低分辨率特征图升级到高分辨率输出,从而有效地将手工设计的双三次滤波器替换为针对每个特征图训练的更复杂的上采样滤波器,同时降低总体超分辨率操作的计算复杂度。该方法的实验结果表明,它在图像和视频方面的表现都比以前的基于 CNN 的方法好得多,并且速度快了一个数量级。
Sep, 2016
本文研究卷积神经网络中大核设计在现代网络中的应用,提出了五个指南以设计高效的,基于大卷积核的 CNN,并使用 RepLKNet 网络来实现可以与 ViTs 相媲美的结果,具有很好的方法可扩展性和性能表现优势。
Mar, 2022
卷积神经网络与视觉 Transformer 在自我监督学习任务中表现相近,通过增加卷积核大小和其他小调整即可达到与 Transformer 相同的性能水平。
Dec, 2023
本文中,我们提出了一种基于 CNN 的 Sparse Mask SR (SMSR) 网络,以学习稀疏掩模,以便在保持可比较性能的同时,准确地定位和跳过冗余计算,从而提高 SR 网络的推理效率。
Jun, 2020
本文提出一种深度学习方法用于图像超分辨率,采用卷积神经网络直接将低分辨率图片转换为高分辨率图片,能够实现较快的速度和超强的恢复质量,扩展支持三种颜色通道同时处理。
Dec, 2014