LiFF: 光场特征的尺度与深度
该研究提出了基于概率的特征嵌入 (PFE) 方法,通过在概率空间中组装各种低维卷积模式来学习特征嵌入结构,以捕捉空间角信息。进一步结合编码孔径相机的固有线性成像模型,构建了一个循环一致的 4-D LF 重建网络。同时,将 PFE 纳入到迭代优化框架进行 4-D LF 去噪,实验证明该方法在真实和合成 4-D LF 图像上的表现显著优越。
Jun, 2023
通过仅使用单个 RGB 图像作为输入,LFdiff 采用基于扩散的生成框架针对光场合成进行设计,利用单目深度估计网络估计视差并结合新颖的条件方案和面向光场数据的噪声估计网络。实验结果表明,LFdiff 在综合光场合成方面具有卓越表现,并且生成的光场数据具有广泛的应用性,涵盖了光场超分辨率和重焦等应用领域。
Feb, 2024
本文介绍了如何使用全谱光场捕获(H-LF)系统提取场景深度。我们的方法分为两个部分,第一部分是新的跨光谱配对技术,第二部分是使用 H-LF 立体匹配。实验结果表明,我们的方法能够产生高质量的视差图,并且可以用于产生完整的光场,并合成不同光谱响应下的全焦和散焦彩色图像。
Sep, 2017
本研究提出了一种基于神经网络的端到端架构,用于从 4D 光场视频中进行深度估计,同时建立了一个中等规模的 4D 光场视频数据集,并验证了在嘈杂区域中加入时间信息可以提高深度估计精度的实验结果。
Dec, 2020
基于非学习的优化方法,该论文提出了一种新的方法,通过明确考虑光场的 4D 几何模型,来利用 4D 几何信息进行深度估计,实验结果表明,该方法在表面法线角度精度方面优于现有的学习和非学习的方法,在平面表面上的平均中位角误差比现有方法低 26.3%,在均方误差 ×100 和 Badpix 0.07 方面与现有方法具有竞争力。
Mar, 2024
本文介绍了一种用于轻场摄像机数据处理的卷积神经网络,利用分离机制处理空间和角度信息间的交织以实现空间分辨率的提升,角度超分辨率和视差估计。实验结果表明,该方法在所有三个任务实现了最好的表现。
Feb, 2022
光场成像具有捕捉角度和空间光分布的能力,通过模块化方法进行分辨率增强,以每个光场视角独立增强分辨率的纹理变换网络,并利用光场的规则性来同时提高所有光场图像视角的分辨率,相比现有方法在定性和定量评估方面表现出更好的性能。
May, 2024
本文介绍了一种基于深度神经网络的光场视频插值系统,将三帧每秒的光场图像和标准的 30 帧每秒二维视频相结合,使用流估计和外观估计生成一个完整的光场视频,使得消费级光场摄影和诸如聚焦和视差视图的应用首次可用于视频。
May, 2017
提出了基于位置场描述符的单张图像三维模型检索方法,利用位置场来实现从 2D 像素到 3D 表面坐标的对应,从而明确地捕捉 3D 形状和位姿信息,前期融合 3D 模型和 RGB 图像的核心瓶颈位置场预测能够规范化数据,拟合更多的虚拟数据,提高模型鲁棒性,最终在多项 3D 检索指标上以高达 20% 的绝对值优势显著超越现有技术。
Aug, 2019
本研究提出了一种新的基于 CNN 的光场显著性检测框架,提出了三个新颖的 MAC(模型角度改变)块来处理光场微透镜图像,同时还建立了一个大规模的数据集和标准,可以用来训练更深的神经网络和进行评测,实验证明,我们的方法在该数据集上明显优于现有的最先进方法,并在其他数据集上具有理想的泛化能力。
Jun, 2019