相位引导光场三维高分辨率成像
我们设计了一个基于光学分束器的混合光场成像原型,可以同时记录 4D 光场图像和高分辨率的 2D 图像,并生成混合光场数据集。然后,我们提出了一种基于无监督学习的超分辨率框架,利用混合光场数据集自适应地解决具有复杂退化模型的光场空间超分辨率问题。我们的方法在实验证明了与基于监督学习的最先进方法具有相同的优势。据我们所知,这是光场成像研究中第一种端到端无监督学习的空间超分辨率方法,其输入可以从我们的基于光学分束器的混合光场系统中获得。硬件和软件的结合有望在很大程度上促进光场超分辨率的应用。
Feb, 2024
本研究提出了一种新的框架,它可以从光场数据中恢复高质量的连续深度图,其中包括基于深度图完全参数化的光场生成模型,并结合非局部均值先验等强大的正规化技术以实现准确的深度图估计。
Sep, 2016
本研究提出了一种新的光场超分辨率算法,采用多帧方法,使用不同光场视图中的信息来增强整个光场的空间分辨率,结合图形正则化器通过非局部自相似性来避免各个视图昂贵且具挑战性的差异估计步骤。实验表明,本算法在 PSNR 和视觉质量方面都与其他光场超分辨率最先进方法相比优越。
Jan, 2017
基于非学习的优化方法,该论文提出了一种新的方法,通过明确考虑光场的 4D 几何模型,来利用 4D 几何信息进行深度估计,实验结果表明,该方法在表面法线角度精度方面优于现有的学习和非学习的方法,在平面表面上的平均中位角误差比现有方法低 26.3%,在均方误差 ×100 和 Badpix 0.07 方面与现有方法具有竞争力。
Mar, 2024
本文介绍了一种基于深度神经网络的光场视频插值系统,将三帧每秒的光场图像和标准的 30 帧每秒二维视频相结合,使用流估计和外观估计生成一个完整的光场视频,使得消费级光场摄影和诸如聚焦和视差视图的应用首次可用于视频。
May, 2017
光场成像具有捕捉角度和空间光分布的能力,通过模块化方法进行分辨率增强,以每个光场视角独立增强分辨率的纹理变换网络,并利用光场的规则性来同时提高所有光场图像视角的分辨率,相比现有方法在定性和定量评估方面表现出更好的性能。
May, 2024
以基于 3D 高斯喷墨技术的轻量级方法为基础,利用多视图低动态范围(LDR)图像,通过变化的曝光时间、光圈和聚焦距离重建高动态范围(HDR)光辐射场,实现灵活的重焦渲染,同时结合 HDR 和景深的处理,能够在实时电影渲染中表现出优异的性能。
Jun, 2024
通过使用 Single Photon Avalanche Diode(SPAD)阵列和 “Single-Photon Structured Light” 技术,结合高速二值投影仪,实现了高帧速率和低光水平下的三维扫描,同时通过设计能抵消误差的纠错代码,以解决受光源干扰的问题。
Apr, 2022
本文提出一种基于学习的轻场景图像空间超分辨率框架,在每个轻场景图像视角学习探索不同的信息,并通过正则化网络结构来确保场景的正确视差关系,实验结果表明该方法不仅提高了平均峰值信噪比超过 1.0 dB,而且以更低的计算成本保持了更准确的视差细节。
Apr, 2020