CLE 扩散:可控光增强扩散模型
本文提出了一种名为 DiffLLE 的基于扩散模型的无监督低光图像增强方法,通过扩散模型能有效地减少噪声,并在实际应用中桥接了真实低光域和训练降解域之间的差距,从而提高了增强模型的稳健性和有效性。
Aug, 2023
提出了一种基于扩散模型的零参考光估计扩散模型,用于低光图像增强,通过零参考学习成功地弥补了对成对训练数据的依赖,并通过与初始优化网络之间的双向约束实现光照增强。
Mar, 2024
该论文提出了一种新的方法来在基于扩散的图像生成过程中实现细粒度的灯光控制,通过为文本提示添加辐射提示的详细光照信息,结合经过预训练的扩散模型和 DiLightNet 来控制图像生成过程中的灯光。
Feb, 2024
本文提出了一种基于语义的分层控制图像编辑方法 ——LayerDiffusion,通过对大规模文本转图像模型的利用,结合分层控制优化策略和分层扩散训练,实现特定主题属性的非刚性编辑和属性修改,同时保持其独特的特征并无缝地融入新背景,而在扩散过程中采用迭代引导策略生成与文字描述相符的最终图像,在实验结果中发现 LayerDiffusion 能够生成高度一致、与给定文本描述密切符合的图像,同时保持与输入图像相似的特征,超越了当前领先的图像编辑方法,开启了图像编辑的新可能性。
May, 2023
通过使用大规模预训练的扩散模型,我们提出了一种可控的图像合成方法,将图像混合、图像协调、视角综合和生成式合成统一为一个扩散模型,同时设计了一个自监督训练框架和一个定制化的训练数据准备方法,并通过局部增强模块提高合成图像中前景细节的保真性。我们的方法在公共基准和实际数据上进行了评估,结果表明我们的方法比现有方法能够生成更加忠实和可控的合成图像。
Aug, 2023
本文提出了一种基于扩散模型的飞行器低光图像增强方法,通过一种数据集收集方案和自动化的物理模拟生成器来对数据进行预处理。我们的方法在图像亮度增强方面表现更好,在图像质量方面与以前的方法相当。
Jun, 2023
我们的研究介绍了一种名为 LightDiff 的领域定制框架,该框架旨在增强自动驾驶应用中低光照图像的质量,通过使用多条件控制扩散模型并运用增强学习来引导扩散训练过程,从而在夜间条件下显著提高多个先进的三维检测器的性能并实现高视觉质量分数。
Apr, 2024
我们提出了一种名为 DiffLL 的稳健和高效的基于扩散模型的低光图像增强方法,它利用波浪变换加速推理并降低计算资源使用但不损失信息,并通过前向扩散和反向去噪实现稳定去噪和减少随机性。我们还设计了高频率恢复模块,利用图像的垂直和水平细节来补充对角信息以实现更好的细粒度恢复。大量实验证明,我们的方法在定量和视觉上均优于现有的最先进方法,并且与以前的扩散方法相比,在效率上获得了显着的提高。此外,我们还经验性地证明了方法在低光人脸检测方面的潜在实际价值。
Jun, 2023
通过扩散模型结合曲率正则化、全局结构感知正则化和不确定性引导正则化等技术,在低光图像增强问题上取得突破性进展,提高了图像质量、噪声抑制和对比度放大的效果。
Oct, 2023
通过使用 T 形模型架构对低分辨率图像进行全局结构信息的捕捉,并逐步恢复细节,我们提出了一种轻量级的 DDPM(LighTDiff),该模型在保留性能的同时显著减小了模型大小。同时,我们引入了时间光单元(TLU)来实现稳定训练和改善去噪结果,通过与去噪图像特征建立时间步骤的关联,建立去噪步骤的时间依赖性。此外,我们还引入了色度平衡器(CB)来缓解扩散模型中可能存在的光谱变化问题。我们的 LighTDiff 在计算效率方面优于许多竞争的 LLIE 方法。
May, 2024