通过深度视频先验实现视频的无盲区时间一致性
本文提出了一种用于盲视频时间一致性的方法,该方法旨在解决仅在每个视频帧上独立应用图像处理算法导致的时间不一致问题。我们展示了通过在 Deep Video Prior(DVP)视频上训练卷积神经网络实现时间一致性的方法,并针对挑战性的多模态不一致性问题提出了一种经过精心设计的迭代加权训练策略。我们通过 7 个计算机视觉任务的广泛定量和感知实验展示了我们的方法的有效性,并证明了我们的方法在盲视频时间一致性方面优于现有技术水平。
Jan, 2022
本文利用深度递归神经网络,结合短期、长期以及感知上的损失,为视频处理提供了一种基于帧的将原始视频和处理后的视频作为输入,生成时间上连贯的视频的方法,实现了对多种需求的处理,且无需光流计算,具有实时性能。
Aug, 2018
本文提出了一种用于视频去模糊的简单而有效的深度卷积神经网络模型,该模型由中间潜在帧的光流估计和潜在帧恢复步骤组成,并开发了时间锐度先验以控制其性能表现。研究结果表明,该算法在基准数据集和实际视频上的表现优于现有的最先进方法。
Apr, 2020
通过利用传统的运动结构恢复来建立视频中像素的几何约束,使用基于学习的先验 —— 一种单图像深度估计的卷积神经网络,我们给出了一种用于重建密集、几何一致深度的算法。测试时,我们对这个网络进行微调,以满足特定输入视频的几何约束,同时保留其在视频中的其他区域中合成可信深度细节的能力。通过定量验证,我们证明了我们的方法比以前的单目重建方法有更高的准确性和更高的几何一致性。我们的算法能够处理具有轻度动态运动的挑战性手持捕获输入视频。改进重建的质量可以用于场景重建和高级视频视觉效果。
Apr, 2020
该研究旨在通过利用现有视频生成模型中的先验知识,将视频深度估计问题转化为条件生成问题,以降低学习难度并增强泛化能力。通过实证验证,作者提出了一种先优化空间层再优化时间层的训练策略,并通过滑动窗口策略在任意长的视频上进行推断,从而获得更具时间一致性的深度估计结果。实验结果表明,作者提出的 ChronoDepth 方法在估计深度的时间一致性方面优于现有方法,并在深度条件视频生成和新视角合成等实际应用中展示了更一致的视频深度的益处。
Jun, 2024
我们提出了一个新颖的鲁棒性框架,用于低级视觉任务,包括去噪、物体移除、帧插值和超分辨率,不需要任何外部训练数据,通过优化损坏的测试序列来直接学习神经模块的权重,利用视频的时空相干性和内部统计信息。通过引入一种利用视频在不同尺度上的空间 - 时间块重复性属性的新型空间金字塔损失函数,增强了对空间和时间域中非结构化噪声的鲁棒性。进而,我们的框架在输入帧降质方面具有高鲁棒性,并在去噪、物体移除和帧插值等后续任务上取得了最新成果。为了验证我们方法的有效性,我们在标准视频数据集如 DAVIS、UCF-101 和 VIMEO90K-T 上进行了定性和定量评估。
Dec, 2023
本文提出了一种基于光流变形模块和深度网络层的信息检索方法,来更好地聚合时间信息,以提高视频阴影检测的性能,在 ViSha 数据集上测试表明模型的 BER 从 16.7 降低到 12.0,且优于当前最先进的视频阴影检测方法 28%。
Jul, 2021
提出了一种新颖的视频修复算法,通过 Deep Image Prior(DIP)推出的卷积网络,同时生成缺失的外观和光流信息,并采用一种无需先验训练的生成式方法进行修复。该方法具有良好的视觉效果和长期一致性。
Sep, 2019