通过进行一系列实验,我们发现现有的图像质量评估指标并不能正确地代表人们对光照估计方法的偏好,然而通过综合学习多个指标,我们可以更准确地表示人类的首选项,从而为评估未来的光照估计算法提供了新的感知框架。
Dec, 2023
本研究提出了使用新的、由自编码器和四维卷积神经网络组成的两个分支网络结构,深度学习途径来从单个编码的二维图像中恢复高分辨率的四维光场,以实现光场成像的实时视频采集系统的潜力。
Feb, 2018
我们建立了一个自定义的移动多相机大空间密集光场捕捉系统,为各种场景提供一系列高质量和足够密集的光场图像。我们的目标是为 IBRnet、NeRF 和 3D 高斯分解等流行的 3D 场景重建算法做出贡献。此外,我们收集的数据集比现有数据集更密集,可能激发面向空间的光场重建,与物体为中心的 3D 重建不同,从而实现沉浸式虚拟现实 / 增强现实体验。
Mar, 2024
本文提出了一种基于四维光场表示的双阶段变压器模型,旨在弥合几何重建和经典光场渲染之间的差距,通过强制约束几何约束,使得场景几何隐含在稀疏的视角学习中,并在多个前向和 360 度数据集上超越了最先进技术,尤其是在视角变化剧烈的情况下。
Dec, 2021
本文提出了一种处理光场图像的流程,使用增强后的处理 RAW 图像提取子孔径图像,使用最近的颜色转移算法进行色彩校正,最后使用最先进的光场降噪方法进行降噪处理。这种方法提高了光场的质量,减少了鬼影现象和噪音,并在子孔径图像之间提取了更准确,更均匀的颜色。
Aug, 2018
本文研究了基于深度神经网络的知觉度量,用于评估图像质量,提出了一种多分辨率知觉量度(MR-Perceptual),在不同分辨率上聚合知觉信息,并在不同图像畸变的 IQ 任务中表现优于标准知觉量度。
Feb, 2022
本文提出了一种基于深度神经网络的光场压缩方法,采用描述性卷积核和调节卷积核相结合的策略使压缩后的数据更精简,同时保持较高的质量,并同时达到了视角的重建和合成。
Jul, 2023
通过使用 Unity 和 C# 框架开发新方法,生成大规模、可伸缩和可再现的光场数据集,以加速光场深度学习研究。
Dec, 2022
本文提出了一种基于光场的物体中心化组合场景表示法,通过无监督的方式学习神经场景表示,显著提高了场景渲染的速度和质量。
May, 2022
本文提出了一种名为 Deep Surface Light Field(DSLF)的新型神经网络技术来高保真渲染,它可利用不同的采样模式和预测能力填充缺失数据,同时通过图像配准和纹理感知重新网格化以避免模糊,大幅提高了数据压缩比和 GPU 渲染效率。
Oct, 2018