大坐标核注意力网络用于轻量级图像超分辨率
提出了Large Receptive Field Networks,它可以扩展超分辨率网络的感受野,同时不增加深度或参数计数,通过实验证明该方法在提高准确率(PSNR / SSIM),减少参数计数和提高速度方面具有有效性。
Apr, 2018
本论文提出了首个可将跨尺度特征相关性与非局部注意力机制相融合的循环神经网络,该模型及其与本地和同尺度非局部注意力结合可以更好地发现单个低分辨率图像中的跨尺度特征相关性,从而显著提高图像超分辨率的性能,并在多项SISR基准测试中表现出新的最佳效果。
Jun, 2020
本研究旨在解决单张图像超分辨率任务中,通道注意力对不同图层之间相关性的忽视问题,为此,提出了一种新的整体注意力网络(HAN),其中包括层注意力模块(LAM)和通道-空间注意力模块(CSAM),它们旨在模拟层、通道、位置的整体依赖关系,以更好地保留信息丰富的特征,并通过广泛实验,取得了较好的效果。
Aug, 2020
本研究旨在设计一种轻量级卷积神经网络,用于图像超分辨率,提出了一种像素关注机制用于构建简洁且有效的网络,并分别提出了基于像素关注的主干和重建分支的构建块。该模型具有较好效果且参数量只有SRResNet和CARN的17.92%和17.09%。
Oct, 2020
本研究提出了一种新的超分辨率模型——A^2N模型,该模型中引入了注意力机制,并通过动态调整注意力机制使模型达到更高的性能。实验表明,该模型表现出优异的性能。
Apr, 2021
本文提出了一个卷积神经网络(CNN)的多尺度关注网络(MAN),其中包括多尺度大型核关注(MLKA)和门控空间关注单元(GSAU),以提高卷积SR网络的性能。实验结果表明,我们的MAN可以在不同的状态下实现各种平衡。
Sep, 2022
通过将深度可分离卷积核的二维卷积核分解为级联的水平和垂直一维卷积核,提出了一种名为Large Separable Kernel Attention(LSKA)模块的家族,用于减少计算复杂性和内存占用,同时在视觉注意力网络(VAN)中实现具有大卷积核的注意力模块,并表明LSKA模块比VAN中的标准LKA模块具有更大的目标形状偏好和较低的计算复杂度和内存占用。
Sep, 2023
通过应用大感受野,我们提出了一种称为Symmetric Visual Attention Network (SVAN)的方法来改进高效超分辨率重建,减少了算法参数的数量并提高了模型的感知能力。实验结果表明,我们的方法只使用了现有SOTA方法约30%的参数,却能获得高质量的超分辨率重建结果。
Jan, 2024
本研究针对现有光场图像超分辨率方法不够轻量化的问题,提出了一种新的轻量级模型LGFN。该模型通过结合局部和全局特征以及不同通道的特征,可以有效提升光场图像的解析度,并在NTIRE2024光场超分辨率挑战中展示了出色的性能。
Sep, 2024