具有更稠密感受野的循环自监督视频降噪
提出了一种自监督的方法来训练多帧视频去噪网络,利用光流对齐之后惩罚预测帧和相邻目标帧之间的误差,实现了针对不同类型噪声的盲去噪,且在在线自我学习阶段表现优异。
Apr, 2020
本文介绍了一种新颖的无监督视频去噪深度学习方法,可帮助减轻数据稀缺问题并展现对不同噪声模式的稳健性,其方法包括三个模块:生成特征图的特征生成器、生成去噪但略带模糊的参考帧的去噪网络、重新引入高频细节的改进网络。通过利用基于坐标的网络,可以在保留去噪视频帧中高频细节的同时大大简化网络结构。广泛的试验表明,我们的方法可以有效地去噪现实中的钙成像视频序列,而无需先验知识和数据增强训练。
Jul, 2023
本篇研究论文提出了一种基于收集已有高分辨率的视频数据并利用高 - 低感光度设置来构建的视频去噪数据集(ReCRVD),并且使用一种高效的 transformer 网络 (RViDeformer) 来实现抑制原始噪声且需要较少计算量的方法,这种网络结构包括了多分支的时空注意力模块,可以在有监督和无监督的情况下训练,相对于现有的方法取得了更好的性能。
May, 2023
提出了一种基于循环的视频超分辨率方法,该方法有效地利用了前一帧的信息来超分辨率当前帧,包括两个流结构 - 细节块和隐状态适应模块,并在基准数据集上优于最先进的方法。
Aug, 2020
本文提出了一种名为 Residual Radiance Field (ReRF) 的新技术,用于高效压缩长时间动态场景的实时自由视点视频渲染,借助全局坐标小型 MLP 作为特征解码器。通过使用紧凑的运动网格以及残差特征网格来利用帧间特征相似性,我们表明这样的策略可以处理大运动而不降低质量,并且提供了一个特殊的 FVV 编解码器和一个 ReRF 播放器,支持在线流式传输长时间动态场景的 FVVs,并通过大量实验展示了 ReRF 在动态辐射场紧凑表示方面的有效性。
Apr, 2023
本研究提出一种新的思路来解决现实世界 sRGB 图像去噪中空间相关噪声的问题,其通过分别考虑噪声图像中平滑区域和纹理区域的特性,并构建相应的监督来训练模型,最终得到了更好的去噪效果。
Mar, 2023
利用一种新颖的训练方法,基于有噪声图像的非组织集合来培训高质量的图像去噪模型,通过采用具有感受野盲区的网络来消除对参考数据的需要,提高了图像质量和训练效率,最终结果质量与最先进的神经网络去噪器相当。
Jan, 2019
该研究论文介绍了一种基于学习的系统,通过使用基于 Transformer 的深度神经网络来减少低动态范围相机在处理宽动态范围输入时经常出现的局部过曝问题,同时不需要复杂的曝光交替或昂贵的处理来实现高动态范围成像。研究采用了多尺度深度神经网络,并使用合适的代价函数进行训练以达到现有技术水平的质量。通过引入过去的参考帧作为额外输入,帮助重建过曝区域,利用自动曝光中常见的暂时不稳定性,训练了一个决定是否将当前帧作为未来参考帧的参考帧选择深度神经网络。因此,无需交替曝光,得到了一种因果关系的潜在应用于常见视频采集环境的高动态范围幻影算法。
Aug, 2023
NeVRF 利用神经辐射场与基于图像的渲染相结合,通过引入新颖的多视图辐射混合方法从多视图视频中直接预测辐射,实现对长时间动态内视场景的逼真新视点合成。通过利用连续学习技术,NeVRF 能够高效重构顺序数据的帧,不需要重新访问先前的帧,从而实现长时间自由视点视频。此外,通过一种量身定制的压缩方法,NeVRF 能够紧凑地表示动态场景,在实际应用中使动态辐射场更加实用。我们的实验证明了 NeVRF 在实现长时间序列渲染、顺序数据重构和紧凑数据存储方面的有效性。
Dec, 2023