本文提出了一种基于深度学习的感知质量度量方法用于测量视频帧插值结果,通过收集新的视频帧插值质量评估数据集,证明了该方法在视频帧插值结果测量中优于现有的最先进方法。
Oct, 2022
本文是一篇关于计算机视觉中视频插帧的研究,提出了一种基于不确定帧率和曝光时间的一般情况下视频插帧问题的解决方案。使用四个连续的清晰帧或两个连续的模糊帧,通过得出一般曲线运动轨迹公式的方法解决了现有视频帧插值方法只适用于特定时间先验的问题,并通过相邻运动轨迹中的约束定义了一种新的光流细化策略以提高插值结果。实验表明,一个训练良好的模型足以在复杂的实际情况下合成高质量的慢动作录像。
Dec, 2021
通过基于已经训练好的可微分视频帧插值模块的优化框架进行视频预测,不需要训练数据集也不需要附加信息,并且在诸多数据集上取得了良好的预测结果。
Jun, 2022
本文主要针对视频帧插值的质量评价这一研究领域进行了主观评价研究,并提出了迫切需要开发一种专门的感知质量评价标准,结果表明常见的质量评价指标不能很好地与插值内容的感知质量相关联,需要发展更精准的指标。
Feb, 2022
通过使用一个深度卷积神经网络,将视频帧的插值过程作为一个单一卷积过程来处理,可以更好地解决运动估计质量的问题,并且能够优雅地处理一些挑战如遮挡,模糊和亮度变化,从而实现高质量的视频帧插值。
Mar, 2017
本文介绍了一个整合了难度评估和视频帧插值的管道,该管道首先利用先前评估模型对输入帧的插值难度级别进行量化,然后动态选择适当的插值模型生成插值结果,极大地提高了视频帧插值的准确度和效率。
Apr, 2023
本研究提出一种真正的多帧插值器,它利用时间域的金字塔式网络一次性完成多帧插值任务,并使用放松的损失函数流估计过程和先进的基于三次样条的运动模型以提高插值精度,结果表明在 Adobe240 数据集上,所提出的方法生成视觉上令人满意的、时间上一致的帧,比当前最佳的即席方法在 PSNR 上提高 1.57db,模型体积减小 8 倍,速度快了 7.7 倍,并且可以轻松扩展以插入大量新的帧.
Jul, 2020
该研究介绍了一种将基于合成和基于流的方法结合使用的新方法 Time Lens,通过采用事件相机技术来消除场景中高动态的影响,并在多个基准测试中提高了 5.21 dB 的峰值信噪比。
Jun, 2021
该研究提出了一种利用加速信息的二次视频插值方法,并发展了逆向流层用于流场估计和流细化技术,以更精准地实现视频插值,以优于现有的线性模型。
Nov, 2019
本研究针对动画视频插帧问题,提出 AnimeInterp 框架,包括 Segment-Guided Matching 和 Recurrent Flow Refinement 模块,能够有效解决动画视频的颜色匹配和非线性动作问题,该方法在大规模动画三重奏数据集 ATD-12K 上表现优于现有最先进的插帧方法,并具有较优的视觉质量和鲁棒性。
Apr, 2021