学习形变核对图像和视频去噪
本文提出了基于深度神经网络的空间像素聚合模型以及用于视频去噪的时空像素聚合模型,同时介绍了一种新的正则化项用于有效训练视频去噪模型,并证明了该方法在合成和实际数据上的表现优于现有的图像和视频去噪方法。
Jan, 2021
本文通过重新审视可变形卷积技术,旨在解决图像中卷积核区域位置的网格限制问题,以期更好适应物体形状不规则性和运动不确定性,从而提供更准确的插值画面。实验结果表明,相比于现有的其他技术,在四种数据集上所提出的模型表现更为卓越。
Apr, 2022
本论文提出了一种基于广义可变形卷积的新的视频帧插值方法,该方法可以学习运动信息并自由选择时空采样点,经过广泛的实验证明,该方法在处理复杂运动时表现出类似于最先进技术的性能。
Aug, 2020
本文提出了一种使用一对一维卷积核将视频帧插值建模为本地可分离卷积的方法,使用深度卷积神经网络对图像特征进行训练,从而实现了高质量的视频帧插值,无需人工标注。
Aug, 2017
通过学习稀疏且空间变异的卷积核,我们提出了一种新的 CNN 体系结构和实现方式(DKN),用于将高分辨率彩色图像转换为相应的低分辨率深度图。我们还提出了 FDKN 的快速版本,它在标准基准测试上明显优于现有方法。
Mar, 2019
本文提出了一种技术,用于联合去噪从手持相机拍摄的一连串图像。特别地,我们提出了一个卷积神经网络体系结构,用于预测空间变化的核对齐和去噪,一种基于真实噪声形成模型的合成数据生成方法,以及通过一个退火损失函数指导的优化,以避免不良的局部最小值。我们的模型在真实数据和合成数据的宽范围噪声水平上与现有技术相匹配或表现优越。
Dec, 2017
该研究提出了一种新型基于深度学习的视频超分辨率算法 DKSAN,该算法利用了新设计的变形卷积对齐和可形变内核空间注意力模块,更好地利用了时空冗余来促进不同层之间的信息传播,并在实验中展示了比现有技术 EDVR 更好的超分辨率效果。
Oct, 2020
本文针对视频模糊问题,提出了一种基于语义分割,利用不同的运动模型来指导光流估计,并考虑了像素级别的非线性模糊核模型,能够更好地描述复杂的运动模糊,并且在对抗其他先进方法的实验中表现良好。
Aug, 2017
本文介绍了一种新颖的无监督视频去噪深度学习方法,可帮助减轻数据稀缺问题并展现对不同噪声模式的稳健性,其方法包括三个模块:生成特征图的特征生成器、生成去噪但略带模糊的参考帧的去噪网络、重新引入高频细节的改进网络。通过利用基于坐标的网络,可以在保留去噪视频帧中高频细节的同时大大简化网络结构。广泛的试验表明,我们的方法可以有效地去噪现实中的钙成像视频序列,而无需先验知识和数据增强训练。
Jul, 2023