具有大型前景运动的深度高动态范围成像
重建高动态范围(HDR)视频从交替曝光的图像序列中是具有挑战性的,提出了一种名为 HDRFlow 的鲁棒且高效的流估计器,能够实时重建 HDR 视频,通过 HDR 领域对齐损失,多尺度大内核和新的 HDR 流训练方案来处理大运动并提高性能。
Mar, 2024
提出一种端到端的 HDR 视频合成框架,使用 HDR 对齐网络进行低动态范围(LDR)帧之间的运动补偿,并在特征空间中融合对齐的特征生成 HDR 帧,避免了基于像素域光流算法的流估计误差,同时通过引入时域损失来增强时序一致性。实验证明,该方法在多个基准测试上表现良好或可与最先进的方法相媲美。
Aug, 2023
通过粗略的图像对齐和像素混合以及在粗略的 HDR 视频的特征空间中进行更复杂的对齐和时间融合,我们提出了一种基于深度学习的 HDR 视频重建框架,并提出了一个新的 HDR 视频重建数据集和一些优化方法。
Mar, 2021
本文提出了一种新方法,通过将运动对准问题重新制定为简单的亮度调整问题来生成对齐的多曝光特征,并采用粗糙到精细的合并策略和显式饱和度补偿来恢复饱和区域,其中使用自适应的上下文关注重建饱和区域,实验证明我们的方法在定性和定量评估方面优于现有的最先进方法。
Aug, 2023
提出了一种采用注意力模块引导合并 LDR 图像的高动态范围成像(AHDR)神经网络,此方法可避免光流估计误差引起的伪影问题,通过实验证明该方法能够在图像质量上达到最先进的水平。
Apr, 2019
通过自我监督学习策略,提出了一种面向自然动态场景的基于事件的高动态范围成像(HDRI)框架(Self-EHDRI),其中融合了 HDRI 性能和动态模糊补偿,实现了中间锐利 HDR 结果的恢复。实验结果表明,该方法在实时、动态场景下性能优于现有方法。
Apr, 2024
该研究提出了一种基于统计学思想的方法,通过最大后验估计对目标帧进行前景和背景优化求解,通过秩降低法得到背景估计并利用一种新颖的多尺度自适应核回归技术进行前景估计,与现有方法相比,得出高效的 HDR 视频且实验效果明显。
Dec, 2016
本研究提出了一个新颖的基于 Semantics ConsistentTransformer(SCTNet)的无对齐网络,其中包括空间和通道注意力模块。 我们还介绍了一个新的逼真 HDR 数据集,与传统数据集相比获得了更好的性能和计算成本的权衡。
May, 2023
使用深度神经网络、Transformer 等技术提出 HyHDRNet 网络,实现低动态范围图像转高动态范围图像的时空去影与融合,与同类算法相比,取得更优的定量和定性效果。
Apr, 2023
该研究提出了一种自监督的高动态范围(HDR)重建方法 SelfHDR,该方法仅需使用动态多曝光图像进行训练,可消除对有标签数据的需求,并通过两个互补组件来学习重建网络,分别关注 HDR 颜色和结构。实验结果表明,SelfHDR 在真实世界图像上优于最先进的自监督方法,并与有监督方法具有可比性。
Oct, 2023