本文提出了一种使用一对一维卷积核将视频帧插值建模为本地可分离卷积的方法,使用深度卷积神经网络对图像特征进行训练,从而实现了高质量的视频帧插值,无需人工标注。
Aug, 2017
本论文提出了一种基于广义可变形卷积的新的视频帧插值方法,该方法可以学习运动信息并自由选择时空采样点,经过广泛的实验证明,该方法在处理复杂运动时表现出类似于最先进技术的性能。
Aug, 2020
本文通过对动态插帧的一种简单方法 —— 自适应可分离卷积进行微调来实现近乎先进方法的结果,并提出了几种直观但有效的技术来改进插帧质量,这些技术也可以应用于自适应卷积的其他相关应用领域,如连拍图像去噪、联合图像滤波或视频预测。
Nov, 2020
该研究提出了一种通过探索深度信息来明确检测遮挡的视频帧插值方法,其中利用深度感知流投影层来合成中间流动图像,并且通过分类学习来收集周边像素的上下文信息,实现了输入帧、深度图和像素之间的变换以实现帧合成。
Apr, 2019
本文提出了一种适应性选择运动模型的时空卷积网络来逼近像素间的运动。通过实验结果证实算法在四个数据集上的表现均优于现有算法,尤其是在处理非线性运动和运动不连续的情况下具有显著优势。
Jan, 2022
本研究提出了一种使用卷积神经网络对变长多帧视频插值进行建模,同时考虑运动解释和遮挡关系的方法,其中使用了 U-Net 架构计算输入时间序列帧之间的双向光流,并将其用于线性插值生成中间帧。我们的方法在多个数据集上进行实验,结果表明其表现优于现有方法。
Nov, 2017
本文通过重新审视可变形卷积技术,旨在解决图像中卷积核区域位置的网格限制问题,以期更好适应物体形状不规则性和运动不确定性,从而提供更准确的插值画面。实验结果表明,相比于现有的其他技术,在四种数据集上所提出的模型表现更为卓越。
Apr, 2022
本研究提出了一种新的框架,该框架可以通过光流估计学习引起模糊的像素级运动,然后将已解码的特征变形以估算的光流预测多个清晰的帧,从而以一种端到端的方式从运动模糊视频中去模糊、插值和外推锐化帧。
Mar, 2021
本文介绍了一种新的视频帧插值方法 ——PhaseNet。相较于传统方法和基于深度学习方法,PhaseNet 可以更好地处理光照变化和运动模糊等挑战性场景,并且也适用于更大范围的运动,通过直接估计中间帧的相位分解,避免了使用手工设计启发式方法的缺点。
Apr, 2018
本研究提出了一种模糊视频帧插值方法,通过金字塔模块和内部循环递推模块实现一定程度上同时减少运动模糊和提高帧率。实验证明,该方法在影像增强方面表现优异。
Feb, 2020