DynamicStereo:来自立体视频的一致动态深度
通过使用双目输入,引进左右一致性损失函数,并提出一种保存边缘特征的损失函数来改善测试时训练中的深度模糊问题,提出了一种稠密的双目视频深度估计方法,调研结果表明该模型精度可靠。
May, 2023
利用全数据驱动的方法计算深度,通过对非刚性场景开发一种新数据集,其中包括大量的非刚性对象,特别是人,提出了一种损失函数进行深度预测,评估方法并表明该方法对自然场景具有更好的泛化能力。
Apr, 2019
基于学习的方法在动态对象的立体视频中优化单个立体对的有力表现,但存在时间上的不一致性。本文提出了一种双向对齐机制和一个新的框架 BiDAStereo,通过局部匹配和全局聚合的方式实现了一致的动态立体匹配,从而在多个常用基准测试中展示了预测质量的提高和最先进的结果。
Mar, 2024
实时立体匹配是许多扩展现实(XR)应用的基础算法,本研究介绍了一个包含室内场景的真实视频立体合成数据集,并提出了一种在低功耗设备上实现高准确度实时深度推测的新方法。
Sep, 2023
通过利用传统的运动结构恢复来建立视频中像素的几何约束,使用基于学习的先验 —— 一种单图像深度估计的卷积神经网络,我们给出了一种用于重建密集、几何一致深度的算法。测试时,我们对这个网络进行微调,以满足特定输入视频的几何约束,同时保留其在视频中的其他区域中合成可信深度细节的能力。通过定量验证,我们证明了我们的方法比以前的单目重建方法有更高的准确性和更高的几何一致性。我们的算法能够处理具有轻度动态运动的挑战性手持捕获输入视频。改进重建的质量可以用于场景重建和高级视频视觉效果。
Apr, 2020
本文提出了一种新的方法,可以从动态场景的一组图像中合成任意视角和时间的图像,通过单视图深度(DSV)和多视图立体深度(DMV)的结合,重新估计视角和时间下的一致性和深度信息,从而精确的合成真实感极强的虚拟视图。
Apr, 2020
本文提出了一种用于估计一致密集深度图和相机姿态的算法,该算法基于学习的深度先验和几何优化相结合,不需要输入相机姿态,并能够在包括噪声、抖动、运动模糊和卷帘快门失真等多种挑战性条件下实现稳健的重建。
Dec, 2020
使用 Deep 3D Mask Volume 算法,基于自定义的 10 相机固定拍摄装置拍摄的 96 个高质量场景的多视角视频数据集,解决了动态场景视频视野合成中存在的一些挑战,实现了从静态相机拍摄的双目视频中的视角扩展,具有比逐帧静态视点合成方法或使用 2D 遮罩的方法更好的时间稳定性和较少的闪烁伪影,且允许更大的平移运动。
Aug, 2021
提出了一种使用卷积神经网络(CNN)从立体图像估计深度,利用预测的深度图进行体积融合,进而恢复场景的三维重建方法,该方法采用了新的深度细化架构,实现了先进成本滤波架构成本的近半降低,采用风暴池架构进行特征提取,该方法在多个基准数据集上均取得了领先的成果。
Apr, 2019