HDR 视频重建:一种粗到细的网络和一个现实世界基准数据集
提出了一个大规模真实世界的高动态范围(HDR)视频重建基准数据集 Real-HDRV,其中包含 500 个低动态范围(LDR)- 高动态范围(HDR)视频对,结合了全天候、室内和室外等各种场景,提出了一种使用新型的两阶段策略进行全局和局部对齐的端到端网络,实验结果表明,在真实场景中,该方法超越了之前的最先进方法。
Apr, 2024
本研究采用交错传感器捕捉两个曝光图像,并将它们通过融合算法转换为原始和 sRGB 颜色空间下的 HDR 图像,从而创建一个包含 85 个场景和每个场景包含 60 个帧的大规模 LDR-HDR 视频数据集,进而通过提出的基于金字塔流向引导变形卷积的 Raw-HDRNet 模型,以 LDR 图像为输入进行高清重构,该模型在真实场景下的表现比 sRGB 输入更好。
Apr, 2023
提出一种端到端的 HDR 视频合成框架,使用 HDR 对齐网络进行低动态范围(LDR)帧之间的运动补偿,并在特征空间中融合对齐的特征生成 HDR 帧,避免了基于像素域光流算法的流估计误差,同时通过引入时域损失来增强时序一致性。实验证明,该方法在多个基准测试上表现良好或可与最先进的方法相媲美。
Aug, 2023
重建高动态范围(HDR)视频从交替曝光的图像序列中是具有挑战性的,提出了一种名为 HDRFlow 的鲁棒且高效的流估计器,能够实时重建 HDR 视频,通过 HDR 领域对齐损失,多尺度大内核和新的 HDR 流训练方案来处理大运动并提高性能。
Mar, 2024
本文提出了一种基于深度神经网络和卷积神经网络的新型算法来重建高动态范围图像,其方法相较于传统算法在可视化品质和峰值信噪比方面有较大幅度的提高。
Jan, 2018
本文提出了一种新的计算原始 HDR 数据形成管道并构建了第一个实际的原始 HDR 数据集 RealRaw-HDR,开发了一种轻量级高效的 HDR 模型 RepUNet,通过提出即插即用的运动对齐损失方法,解决了短曝光和长曝光图像之间的动作对齐问题,并在视觉质量和量化指标方面实现了最先进的性能。
Jun, 2023
通过将更多信息的 Raw 传感器数据与现有的 8 位 LDR sRGB 图像相结合,本文提出了一种适用于 Raw 图像的模型,通过学习曝光蒙版、双强度引导和全局空间引导等方法,实现对高动态范围场景的重建,并通过大量的 Raw/HDR 数据集进行实证评估,验证了该方法的优越性。
Sep, 2023
该研究提出了一种用于高动态范围成像的非基于流的深度框架,其中将 HDR 成像作为一种图像翻译问题,提出了一种新的算法,从而减少光学流错位、理光、动态物体和一些曝光问题带来的挑战,并与现有算法相比取得了卓越的结果。
Nov, 2017
本文介绍了一种基于深度学习算法的深度卷积神经网络,用于从单张曝光照片中预测 HDR 图像信息,可以在各种不同情况下重建出高分辨率、视觉上令人信服的 HDR 图像,具有广泛的应用前景。
Oct, 2017
提出了一种名为 HDR-V-Diff 的高动态范围(HDR)视频重建方法,结合扩散模型以实现 HDR 分布,通过 HDR Latent Diffusion Model(HDR-LDM)学习单个 HDR 帧的分布先验知识,通过 Temporal-Consistent Alignment Module(TCAM)学习时序信息,使用 Zero-Init Cross-Attention(ZiCA)机制整合先验分布和时序信息,从而生成具有真实细节的 HDR 帧。经过广泛实验证明,HDR-V-Diff 在多个代表性数据集上实现了最先进的结果。
Jun, 2024