- CVPR利用编码孔径和事件实现高效光场采集
我们提出了一种利用编码孔径和事件相机结合的计算成像方法,通过在单次曝光中应用一系列编码模式来记录视差信息,并使用图像帧和事件共同计算重建光场的算法流程,该方法可在单次曝光中实现比其他成像方法更准确的重建,并且在相机上能够以 22 毫秒内完成 - 随机光场全息术
本研究通过使用合成照片,利用光场聚焦和随机采样的方式来监督全息图的计算,提出了一种新的全息图生成算法,并验证了该方法能够显著改善不同瞳孔状态下观看体验的逼真度。
- 学习核调制神经表示用于高效光场压缩
本文提出了一种基于深度神经网络的光场压缩方法,采用描述性卷积核和调节卷积核相结合的策略使压缩后的数据更精简,同时保持较高的质量,并同时达到了视角的重建和合成。
- CVPR走向真实世界光场超分辨率
本文介绍了使用 LYTRO ILLUM 相机的 LytroZoom 数据集以及引入 Omni-Frequency Projection Network (OFPNet) 模型进行深度学习的实时光场图像超分辨率提升 (SR),实验证明模型在真 - OccCasNet:用于光场深度估计的遮挡感知级联代价体积
本研究提出了一个基于层级累加代价体积和遮挡感知技术的光场深度估计方法,该方法利用相机阵列的子孔径图像对中心图像进行提取深度,同时通过引入遮挡地图来提高深度的估计准确性。实验证明了该方法比同类方法更加精确和高效。
- 光场显著目标检测的引导式焦距叠加细化网络
本研究提出了一种新的带引导的聚焦层栈细化神经网络(GFRNet)来优化轻场景中显著目标检测的性能,并利用多模态特征引导进行精细化的聚焦细化。
- NTIRE 2023 光场图像超分辨率挑战:数据集、方法和结果
本文总结了首个基于光场图像超分辨率的 NTIRE 挑战赛,该挑战旨在在标准双三次降级下将光场图像进行超分辨率处理,其中着重探讨了如何利用大量视角相互补充的角度信息来进行超分辨率处理,并介绍了从 148 个参赛者中评选出的 11 个团队的解决 - 一种为机器学习生成可定制光场数据集的新方法
通过使用 Unity 和 C# 框架开发新方法,生成大规模、可伸缩和可再现的光场数据集,以加速光场深度学习研究。
- CVPR考虑遮挡的光场深度估计成本构造器
本研究提出了一个简单且高效构造光场深度估计匹配成本的方法,通过一系列具有特定设计膨胀率的卷积构成成本构造器,能够在不使用任何移位操作的情况下,将预定义视差下的像素进行整合匹配并处理遮挡情况,所提方法在光场深度估计的深度网络建模中取得了较好的 - 利用虚化渲染和超分辨率的相机阵列的选择性光场聚焦
提出了一种基于光场的方法来改善相机阵列的图像质量,使用视差进行对焦区域的估计,使用基于深度的各向异性滤波器渲染非对焦区域,再使用基于重建的超分辨率方法产生重点区域被超分辨率处理而非对焦区域审美化呈现的图像,使得景深可以进行后期调整,并表明该 - NeuLF: 基于神经网络的 4D 光场高效新视角合成
本文提出了一种深度学习方法,用于复杂场景的新视角合成,通过将 3D 场景表示为光场,并采用两平面参数化的光场,用 4D 参数特征化光线,构建 4D 函数实现映射,最后采用全连接网络优化该函数并合成新视角,同时附加了 per-ray dept - DUT-LFSaliency: 多用途数据集和光场到 RGB 显著性检测
本研究提出了一个大规模数据集与两个流模型,用于轻场景中 Saliency 检测,并通过三个蒸馏方案提高了模型的性能和灵活性。
- 光场显著性目标检测:综述与基准
这篇论文提供了关于光场显著性检测的全面综述和基准,包括理论介绍、现有文献综述、数据集总结及统计分析、基准模型和未来挑战方向等方面。
- CVPR基于深度排列几何嵌入和结构一致性正则化的光场空间超分辨率
本文提出一种基于学习的轻场景图像空间超分辨率框架,在每个轻场景图像视角学习探索不同的信息,并通过正则化网络结构来确保场景的正确视差关系,实验结果表明该方法不仅提高了平均峰值信噪比超过 1.0 dB,而且以更低的计算成本保持了更准确的视差细节 - AAAI通过几何感知网络学习光场角超分辨率
本论文提出了一种基于端到端学习的方法,旨在通过充分利用光场的内在几何信息,对大基线光场进行角向超分辨率处理。实验证明,该方法与现有最先进的方法相比,平均提高了 2 dB 的峰值信噪比,并节省了 48 倍的执行时间,同时更好地保持光场视差结构 - CVPR光场图像超分辨率的空间 - 角度交互
本文提出一种名为 LF-InterNet 的空间角度交互网络用于光场图像超分辨率,通过特征交互逐渐融合空间和角度信息。我们的方法在低计算成本下,能够以高 PSNR 和 SSIM 评分还原重构图像的细节,明显优于现有的超分辨率方法。
- MM用半全局匹配实现快速光场深度估计
本研究旨在开发一种简单快速的算法,用于准确深度计算,我们提出了一种采用 Semi-Global Matching 的方法来处理光场图像,该方法基于在光场空间内使用不同度量标准比较像素对应关系,证明了该方法适用于各种光场配置并能够快速生产出正 - 局部光场融合:可行的视图综合及规定采样指南
在虚拟探索中,我们提出了一种实用且强大的深度学习算法来捕捉和呈现复杂实景的新视图,该算法通过从不规则采样的视图网格中渲染新视图,并通过邻近局部光场进行混合来实现。我们将经典的光场采样理论扩展到适用于我们的算法的场景采样。实践中,我们利用该算 - CVPR利用深度学习进行压缩光场重建
本研究提出了使用新的、由自编码器和四维卷积神经网络组成的两个分支网络结构,深度学习途径来从单个编码的二维图像中恢复高分辨率的四维光场,以实现光场成像的实时视频采集系统的潜力。
- 光场联合盲运动去模糊和深度估计
该论文提出了一种新算法,可以同时实现在任意 6-DOF 摄像机运动和不受限制的场景深度下的高质量光场去模糊和深度估计,通过利用光场的多视角特性,减轻了优化的反演性质,利用强深度线索和多视角模糊观察。