LiFCal:基于束调整的在线光场相机标定
本研究提出了一种新的光场超分辨率算法,采用多帧方法,使用不同光场视图中的信息来增强整个光场的空间分辨率,结合图形正则化器通过非局部自相似性来避免各个视图昂贵且具挑战性的差异估计步骤。实验表明,本算法在PSNR和视觉质量方面都与其他光场超分辨率最先进方法相比优越。
Jan, 2017
本文提出了一种深度估计框架,通过超像素的规则化来检测部分遮挡边界区域,结合标签置信度图和边缘强度权重的缩减/强制操作,可以修复一些复杂场景中的深度估计问题。实验结果表明,在平均视差误差率、遮挡边界精确度和特征保存等方面,该方法优于现有的最先进的深度估计方法。
Aug, 2017
本文介绍一种基于完全卷积神经网络的快速准确光场深度估计方法,克服了光场图像深度估计中存在的一些限制,如缺乏训练数据以及方法速度与准确性之间的权衡。该方法在HCI 4D光场基准测试中排名第一,并在实际光场图像上展示了方法的有效性。
Apr, 2018
本论文提出了一种基于端到端学习的方法,旨在通过充分利用光场的内在几何信息,对大基线光场进行角向超分辨率处理。实验证明,该方法与现有最先进的方法相比,平均提高了2 dB的峰值信噪比,并节省了48倍的执行时间,同时更好地保持光场视差结构。
Feb, 2020
通过利用单目 3D 先验性,提出了无假设的方法来校准完整的 4 DoF 内参参数,并引入了一个新的单目 3D 先验——入射场,使用鲁棒的RANSAC算法实现内参的恢复,进而实现图像处理检测与恢复、不经过校准的两视图姿态估计和三维感知等下游应用。
Jun, 2023
我们提出了一种方法来解决由具有滚动快门传感器的光场相机拍摄的单幅图像的三维场景重建问题。我们的方法利用光场中存在的三维信息线索和滚动快门效应提供的运动信息。我们提出了一个适用于该传感器的成像过程的通用模型和一个两阶段算法,该算法能在考虑相机的位置和运动的情况下,最小化重新投影误差,并采用运动-形状捆绑调整估计策略。从而,我们提供了一种瞬时的三维形状-姿态-速度感知范例。据我们所知,这是第一项利用这种传感器进行这种目的的研究。我们还提供了一个由展示滚动快门效应的不同光场组成的新的基准数据集,可用作改进该领域评估和跟踪进展的共同基础。我们通过几个针对不同场景和运动类型的实验来展示我们方法的有效性和优势。源代码和数据集可在此https URL公开访问。
Nov, 2023
基于非学习的优化方法,该论文提出了一种新的方法,通过明确考虑光场的4D几何模型,来利用4D几何信息进行深度估计,实验结果表明,该方法在表面法线角度精度方面优于现有的学习和非学习的方法,在平面表面上的平均中位角误差比现有方法低26.3%,在均方误差×100和Badpix 0.07方面与现有方法具有竞争力。
Mar, 2024
本研究解决了光度束调整(PBA)在非朗伯环境中面临的光度不一致性问题,该问题严重影响现有PBA方法的可靠性。我们提出了一种新颖的基于物理的PBA方法,引入了与材料、光照和光路径相关的权重,从而更准确地估计相机姿态和3D几何体。研究结果显示,该方法在准确性方面优于现有方法。
Sep, 2024