线性相机阵列的视频拼接
提出了一种新的方法,StabStitch,用于同时实现视频拼接和视频稳定化,通过整合空间和时间变形,优化拼接轨迹,解决了视频拼接中的抖动问题,提高了场景稳定性和实时性。
Mar, 2024
本文提出了一个实时系统,将多个视频序列拼接成全景视频,该系统基于 GPU 加速的颜色校正和帧变换,无需准确的相机参数。我们扩展了传统的 2D-Matrix (2D-M) 颜色校正方法和一种基于时空 3D-Matrix (3D-M) 的颜色校正方法进行局部区域的重叠处颜色平衡,并使用粗糙相机标定给出的成对单应矩阵进行全局变形,然后根据光流进行准确的局部变形。实验结果表明,我们的系统能够实时生成高质量的全景视频。
Aug, 2023
本研究提出了一种帧综合算法实现了全帧视频稳定,该方法通过估计密集的变形场,并通过融合变形内容生成稳定的帧,该方法通过基于学习的混合空间融合减轻了由光流不精确和快速移动物体导致的伪影,并通过 NUS、自拍和 DeepStab 视频数据集验证了该方法的有效性,实验结果表明其优于先前的视频稳定方法。
Feb, 2021
提出了一种基于深度学习的缝合模型,采用弱监督学习机制训练,实现对多个鱼眼图像的 360 度输出,通过色彩一致性校正、畸变校正和图像融合实现,其训练采用感知损失和 SSIM 损失函数,在两个真实的缝合数据集上进行了有效性验证。
Sep, 2022
本文介绍一种可扩展和强健的非线性时间视频对齐方法,该方法利用了视频本身的本质,能够在没有手动标签的情况下对月份间隔的数据进行视频对齐,并能用于计算机图形学和视觉领域的广泛应用。
Oct, 2016
该研究论文提出了一种独特且综合的图像拼接流程,利用 OpenCV 的拼接模块,通过集成基于特征匹配、变换估计和融合技术,实现了无论图像间的光照、尺度或方向差异如何,都能产生顶级质量的全景视图,并在多种数据集上进行测试,发现其在增强场景理解和找到实际应用方面非常有效。
Dec, 2023
通过迭代优化学习的方法,我们提出了一种基于合成数据集的视频稳定化方法,其中包括两个交互子模块:运动轨迹平滑和全帧修复。我们将视频稳定化问题转化为减少运动轨迹中颤动的数量的问题,并通过固定点理论保证收敛性,从而在计算速度和视觉质量上实现了突出的优势。
Jul, 2023
本文介绍了一种基于深度学习的视频稳定技术,通过帧间插值技术生成中间帧实现在保持完整画面的同时避免剪切和失真。该方法可在近实时运行。与现有方法相比,该方法可以显著提高稳定效果并在无监督的情况下进行端到端的训练。
Sep, 2019