本文提出了一种广角摄像阵列的稳定视频拼接算法,将拼接问题转化为学习一个平滑的空间插值以及介绍了一种快速推扫插值层和一种新颖的推扫拼接网络,并证明该方法的性能显著优于现有技术,具有虚拟现实、沉浸式远程交互、自动驾驶和视频监控等领域的广泛应用。
Jul, 2019
本文提出了一个实时系统,将多个视频序列拼接成全景视频,该系统基于 GPU 加速的颜色校正和帧变换,无需准确的相机参数。我们扩展了传统的 2D-Matrix (2D-M) 颜色校正方法和一种基于时空 3D-Matrix (3D-M) 的颜色校正方法进行局部区域的重叠处颜色平衡,并使用粗糙相机标定给出的成对单应矩阵进行全局变形,然后根据光流进行准确的局部变形。实验结果表明,我们的系统能够实时生成高质量的全景视频。
Aug, 2023
本研究提出了一种帧综合算法实现了全帧视频稳定,该方法通过估计密集的变形场,并通过融合变形内容生成稳定的帧,该方法通过基于学习的混合空间融合减轻了由光流不精确和快速移动物体导致的伪影,并通过 NUS、自拍和 DeepStab 视频数据集验证了该方法的有效性,实验结果表明其优于先前的视频稳定方法。
Feb, 2021
通过迭代优化学习的方法,我们提出了一种基于合成数据集的视频稳定化方法,其中包括两个交互子模块:运动轨迹平滑和全帧修复。我们将视频稳定化问题转化为减少运动轨迹中颤动的数量的问题,并通过固定点理论保证收敛性,从而在计算速度和视觉质量上实现了突出的优势。
Jul, 2023
通过使用图像分割引导的多单应性变换,本文提出了一种新颖的图像拼接方法,解决了图像间的大视差问题,并且在公共数据集上的综合实验结果表明,相较于现有方法,我们的方法具有更高的对齐精度。
Jun, 2024
本论文提出了一种基于无监督深度学习的图像拼接框架,包括无监督的粗略图像对齐和无监督的图像重建两个阶段,使用了降分辨率变形支路和提高分辨率的精化支路,其精度优于现有的其他技术。
Jun, 2021
本文介绍了一种名为 RStab 的视频稳定化新框架,它通过体积渲染集成了三维多帧融合。我们引入三维多帧视角来生成稳定图像,解决了全帧生成和结构保留的挑战。该框架核心在于稳定渲染(SR)模块,在图像融合的基础上还融合了特征。通过投影将多帧的特征和颜色进行变形和融合,生成稳定图像。此外,我们引入自适应射线范围(ARR)模块来集成深度先验,自适应定义投影过程的采样范围。同时,我们提出了色彩校正(CC)辅助几何约束和光流以实现准确的颜色聚合。多亏了这三个模块,我们的 RStab 在视野范围、图像质量和视频稳定性等各种数据集上展现出卓越的性能。
Apr, 2024
提出了一种基于深度学习的缝合模型,采用弱监督学习机制训练,实现对多个鱼眼图像的 360 度输出,通过色彩一致性校正、畸变校正和图像融合实现,其训练采用感知损失和 SSIM 损失函数,在两个真实的缝合数据集上进行了有效性验证。
Sep, 2022
本文介绍一种可扩展和强健的非线性时间视频对齐方法,该方法利用了视频本身的本质,能够在没有手动标签的情况下对月份间隔的数据进行视频对齐,并能用于计算机图形学和视觉领域的广泛应用。
Oct, 2016
本文提出了一种新的微分单应矩阵,能够在滚动快门摄像机中考虑不同的扫描线相机姿态,并演示其在进行 RS 感知的图像拼接和矫正方面的实际应用。
Aug, 2020