基于注意力引导的网络,用于无幽灵高动态范围成像
使用深度神经网络、Transformer 等技术提出 HyHDRNet 网络,实现低动态范围图像转高动态范围图像的时空去影与融合,与同类算法相比,取得更优的定量和定性效果。
Apr, 2023
提出了一种基于 CNN 和 Dual Transformer 的 hierarchical dual Transformer 方法(HDT-HDR)进行去除 LDR 图像中 ghosts 的 HDR 图像生成方法,该方法能够同时提取全局特征和局部特征,进行了大量实验验证其效果优于现有的 HDR ghost removal 方法。
Apr, 2023
提出一种端到端的 HDR 视频合成框架,使用 HDR 对齐网络进行低动态范围(LDR)帧之间的运动补偿,并在特征空间中融合对齐的特征生成 HDR 帧,避免了基于像素域光流算法的流估计误差,同时通过引入时域损失来增强时序一致性。实验证明,该方法在多个基准测试上表现良好或可与最先进的方法相媲美。
Aug, 2023
从低动态范围(LDR)图像中恢复高动态范围(HDR)图像是通过现有的深度神经网络(DNN)技术实现的。但是,基于 DNN 的方法在 LDR 图像存在饱和度和大动作时仍然会生成虚影伪影,这限制了其在真实世界场景中的应用潜力。为了解决这个挑战,我们将 HDR 去伪影问题转化为基于图像生成的问题,利用 LDR 特征作为扩散模型的条件,包括特征条件生成器和噪声预测器。特征条件生成器利用注意力和域特征对齐(DFA)层来转换中间特征,以避免虚影伪影。通过学习得到的特征作为条件,噪声预测器利用随机迭代去噪过程来通过控制采样过程生成 HDR 图像。此外,为了减轻 LDR 图像饱和问题引起的语义混淆,我们设计了一个滑动窗口噪声估计器,以块为单位进行平滑噪声采样。另外,提出了一个图像空间损失来避免估计的 HDR 结果的色彩失真。我们通过在 HDR 成像的基准数据集上进行实证评估,结果表明我们的方法在性能上达到了最先进水平,并且对真实世界图像具有良好的泛化能力。
Nov, 2023
本研究提出一种基于注意力引导的变形卷积神经网络 ADNet,用于携带多帧高动态范围(HDR)成像,解决曝光过度、噪点和物体运动或摄像头抖动导致的图像不对准等问题,ADNet 在与先前方法的比较中表现出最先进的性能,在 NTIRE 2021 多帧 HDR 挑战中实现了 39.4471 的 PSNR-l 和 37.6359 的 PSNR-μ。
May, 2021
该研究提出了一种用于高动态范围成像的非基于流的深度框架,其中将 HDR 成像作为一种图像翻译问题,提出了一种新的算法,从而减少光学流错位、理光、动态物体和一些曝光问题带来的挑战,并与现有算法相比取得了卓越的结果。
Nov, 2017
本研究提出一种双分支的 CA-ViT 方法,通过全局支路来捕捉拍摄对象的长距离移动和渐变,局部支路使用通道注意力机制来捕捉具有信息意义的局部细节,从而实现生成真实细节的无幽灵高动态范围成像。实验结果表明,该方法在质量和计算成本上均优于最先进的方法。
Aug, 2022
通过融合多曝光低动态范围(LDR)图像生成无伪影、具有真实细节的高动态范围(HDR)图像是高动态范围成像的目标。为了解决相关问题,本文提出了一种高质量 HDR 图像生成的 HDR 转换变形卷积(HDRTransDC)网络,该网络包括 Transformer Deformable Convolution Alignment Module(TDCAM)和 Dynamic Weight Fusion Block(DWFB)。详细实验表明,我们的方法在定量和定性上都达到了最先进的性能。
Mar, 2024
本文提出了一种轻量级神经网络 EAPNet,采用多维轻量级编码模块提取特征并提出了 PDUB 模块进行动态调整 MAccs 和 PSNR 的性能。此外,利用快速低功耗的对齐模块解决了 Misalignment 问题,实验结果表明,与现有方法相比,我们的方法在 MAccs 上压缩约 20 倍,并获得了 NTIRE 2022 HDR 挑战的第二名。
Apr, 2022
该研究提出了一种自监督的高动态范围(HDR)重建方法 SelfHDR,该方法仅需使用动态多曝光图像进行训练,可消除对有标签数据的需求,并通过两个互补组件来学习重建网络,分别关注 HDR 颜色和结构。实验结果表明,SelfHDR 在真实世界图像上优于最先进的自监督方法,并与有监督方法具有可比性。
Oct, 2023