本文通过重新审视可变形卷积技术,旨在解决图像中卷积核区域位置的网格限制问题,以期更好适应物体形状不规则性和运动不确定性,从而提供更准确的插值画面。实验结果表明,相比于现有的其他技术,在四种数据集上所提出的模型表现更为卓越。
Apr, 2022
通过使用一个深度卷积神经网络,将视频帧的插值过程作为一个单一卷积过程来处理,可以更好地解决运动估计质量的问题,并且能够优雅地处理一些挑战如遮挡,模糊和亮度变化,从而实现高质量的视频帧插值。
Mar, 2017
本文提出了一种使用一对一维卷积核将视频帧插值建模为本地可分离卷积的方法,使用深度卷积神经网络对图像特征进行训练,从而实现了高质量的视频帧插值,无需人工标注。
Aug, 2017
该研究提出了一种通过探索深度信息来明确检测遮挡的视频帧插值方法,其中利用深度感知流投影层来合成中间流动图像,并且通过分类学习来收集周边像素的上下文信息,实现了输入帧、深度图和像素之间的变换以实现帧合成。
Apr, 2019
该论文提出了一种增强的可变形可分离卷积(EDSC)来生成视频序列的中间帧,并能够以任意时间位置生成任意帧。通过学习自适应卷积核、偏移量、掩码和偏置等多个组件,能够从非局部邻域获取信息,并且通过扩展的 coord-conv 技巧,能够控制中间时间步来生成多个中间帧。实验结果表明,该方法在广泛的数据集范围内优于现有方法。
Jun, 2020
本文提出了一种适应性选择运动模型的时空卷积网络来逼近像素间的运动。通过实验结果证实算法在四个数据集上的表现均优于现有算法,尤其是在处理非线性运动和运动不连续的情况下具有显著优势。
Jan, 2022
本研究提出了一种使用可变形卷积的视频帧插值方法,使用粗到细的 3D CNN 增强多流预测,实验结果表明,该方法的干涉性能优于其他现有算法,最高可以获得 0.19dB 的 PSNR 增益。
Feb, 2022
本文提出了一种基于多尺度生成对抗网络的视频插帧算法(FIGAN),并通过构建粗到细的多尺度残差估计模块以及联合多级感知损失函数的方法,在算法效率和插帧视频的视觉质量两方面取得了较好的结果。
Nov, 2017
本文提出了一种基于深度神经网络的变形二维卷积核和三维卷积核的去噪方法,能够自适应地适应图像结构,并在处理具有大运动的动态场景时具有较好的性能。
本研究提出了一种使用卷积神经网络对变长多帧视频插值进行建模,同时考虑运动解释和遮挡关系的方法,其中使用了 U-Net 架构计算输入时间序列帧之间的双向光流,并将其用于线性插值生成中间帧。我们的方法在多个数据集上进行实验,结果表明其表现优于现有方法。