流边引导的视频补全
本文提出了一种新颖的视频修复方法,使用 Deep Flow Completion 网络综合光流场来引导像素填充,从而保证了视频内容的时空连贯性,并在 DAVIS 和 YouTube-VOS 数据集上取得了最优的修复质量和速度。
May, 2019
本文提出了一种 End-to-End framework for Flow-Guided Video Inpainting (E$^2$FGVI) 方法,该方法通过三个可训练模块的设计实现了光流的流程化。 实验结果表明,该方法在质量和效率上都优于现有的方法。
Apr, 2022
该研究提出了一种基于流引导特征聚合的视频物体检测学习框架,该框架通过沿着运动路径聚合邻近特征来提高视频的识别精度,避免了视频中物体外观退化的问题,并且完全可训练,与 ImageNet VID 挑战的最佳工程系统相当
Mar, 2017
本研究提出了基于流场引导的视频修复的误差补偿框架(ECFVI),通过设计新的流场完备模块和误差补偿网络,提高视频修复的时间连贯性和视觉质量,并通过新的基准测试数据集对所提出方法的高效性进行了支持。
Jul, 2022
本研究提出了一种基于任务的流程(TOFlow),该方法采用自我监督的方式以任务特定的方式学习运动表示,并在视频插值、视频去噪 / 去块以及视频超分辨率等三个视频处理任务上超越了传统的光流方法。
Nov, 2017
提出了一种基于光学流的流程引导变压器,用于高保真视频修复,通过设计新颖的流完整网络来完成损坏的光流,并使用流引导变压器来合成其余的损坏区域,通过时间和空间维度解耦变压器,以便仅集成局部相关的完成的流来控制流对每个空间变压器的影响。
Aug, 2022
本研究探讨基于单张静态图片生成连续多个未来视频帧的问题,提出了基于多流模型预测和合成的方法。通过 3D 卷积学习了空间 - 时间关系,预测的结果更加接近真实视频的流形形态,相比现有方法性能更好、多样性更强且能获得更高的人类视觉评估。
Jul, 2018
Flow-Guided Diffusion model significantly enhances temporal consistency and inpainting quality in video inpainting by employing optical flow and a model-agnostic flow-guided latent interpolation technique.
Nov, 2023
本文提出了基于光流和边缘线索的新型显着性估计技术和新型邻域图,用于解决快速运动,运动模糊和遮挡等视频分割的挑战,在 DAVIS,SegTrack v2 和 FBMS-59 数据集中取得了超越深度学习方法的最新成果。
Sep, 2018
本文提出了一种用于从立体影像中求解密集的三维场景流问题的连续优化方法,其中将动态三维场景表示为一系列刚性运动的平面段,使用预先确定的精细超像素分割,将问题分解为光度学、几何和平滑约束,并使用 Levenberg-Marquardt 进行全局非线性优化。
Jul, 2016