一个用于图像去噪的交叉变压器
本文提出了一种新颖的 Denoise Transformer 算法,其中包括 CADT 单元和 SNE 块,通过二者的结合构建分层网络,直接利用残差学习获取噪声分布信息,进而形成最终的去噪输出。实验证明,该算法在传统深度学习方法中具有更好的性能和岩石文本以及低光图像,而不需要关于噪声级别或类型的任何先前知识。
Apr, 2023
本文提出了一种 Lightweight Bimodal Network (LBNet) 方法,它基于 Symmetric CNN 和 Recursive Transformer 实现了高效的单图像超分辨率 (SISR),相对于同类算法,该方法在计算成本和内存消耗较低的情况下实现了更明显的性能提升。
Apr, 2022
本文介绍了一种名为 WiTUnet 的新型 LDCT 图像去噪方法,该方法利用嵌套的密集跳跃路径代替传统的跳跃连接来改进特征整合,同时在编码器和解码器中增加了局部图像感知增强 (LiPe) 模块以提高局部特征捕获和表示能力;通过广泛的实验比较,WiTUnet 在峰值信噪比 (PSNR)、结构相似度 (SSIM) 和均方根误差 (RMSE) 等关键指标上表现出优越的性能,显著提高了去噪和图像质量。
Apr, 2024
本文提出了一种基于 Dual-branch Residual Attention Network(DRANet)的图像降噪方法,通过增宽网络结构和注意力机制获得更好的去噪效果。实验证明,相比于其他已有的方法,该方法能够更好地处理合成和真实场景下的噪声。
May, 2023
本文介绍了一种动态网络(DSRNet)用于图像超分辨率,它包含了残差增强块、宽增强块、特征细化块和构建块。DSRNet 不仅能提取更准确的图像超分辨率信息,还能适用于复杂场景,并具有更轻便的结构。
Oct, 2023
将音频降噪问题转化为图像生成任务,通过复杂图像生成 SwinTransformer 网络捕获更多的信息,使用结构相似性和详细损失函数生成高质量图像并最小化去噪音频和干净音频之间的差异,实验证明该模型优于现有方法。
Oct, 2023
通过在层间添加密集残差连接以减少空间信息的丢失,我们提出了 Dense-residual-connected Transformer (DRCT) 模型,提高了视觉变换和超分辨率任务的性能。
Mar, 2024
我们提出了一种新的基于降噪感知自注意的 Transformer 模型,将 CNN 和 Transformer 组件结合到超分辨网络中,实现了在盲超分辨率方面的最先进性能。
Oct, 2023
本文提出了一种名为 Restoration Transformer 的有效 Transformers 模型,通过几个关键设计,使其能够捕捉长距离像素交互,同时仍适用于大图像,在图像去噪、去模糊和降雨方面达到了最先进的效果。
Nov, 2021
本文提出了一种新的医学图像分割混合架构,手持卷积神经网络和 Transformer,用于动态变形卷积和自适应互补注意模块改进卷积神经网络和 Transformer 的性能,以实现更好的医学图像分割结果。
Jun, 2023