一种规避所有噪声级别的通用降噪算法训练方法
通过自适应采样 / 主动学习策略,在高维度下扩展了通用降噪网络的训练方法,并将真实的规范损失景观进行多项式逼近,从而实现几乎两个数量级的训练时间缩短。我们在模拟的联合 Poisson-Gaussian-Speckle 噪声上进行了测试,并证明了使用我们提出的训练策略,在大范围的工作条件下,单个盲目的通用降噪器网络可以在专业降噪器网络的均匀界限内实现峰值信噪比。我们还使用具有不同数量的联合 Poisson-Gaussian-Speckle 噪声的小型图像数据集进行实验,并证明了使用我们的自适应采样策略进行训练的通用降噪器优于均匀训练的基准模型。
Oct, 2023
通过最小化经验估计损失函数,从噪声受损数据中适应性地学习参数的神经网络 DUDE 的去噪损失限制类似于监督学习中标准经验风险最小化器(ERM)的泛化误差下限。我们表明其本质上也存在于去噪损失限制中,在所有有界的网络参数和所有基础干净序列上都能一致地保持其无偏估计损失集中于真实去噪损失,这是我们开发的关键工具。最后,我们证明了 Neural DUDE 的超参数可以从一个小的验证集中选择,以显著提高去噪性能。
Sep, 2017
通过基于分数的逆扩散算法生成的高质量样本提供了证据,表明尽管遭受维度灾难的困扰,用于降噪训练的深度神经网络(DNN)可以学习高维密度。然而,关于训练集记忆化的最近报导引发了一个问题,即这些网络是否正在学习数据的 “真实” 连续密度。在本文中,我们展示了在非重叠的数据集子集上训练的两个降噪 DNN 学习到几乎相同的评分函数,从而学习到相同的密度,并且只需要非常少的训练图像。这种强大的泛化表明 DNN 架构和 / 或训练算法中的强大归纳偏差与数据分布的特性相一致。我们通过对这些内容进行分析来证明这一点,证明了去噪器在适应底层图像的基础上执行了一个收缩操作。对这些基础的检查揭示了轮廓线和均匀图像区域中的振荡谐波结构。我们通过证明即使在训练于低维流形等图像类别的情况下,这些经过训练的去噪器也会生成这种几何自适应谐波表示来表明它们在归纳偏差方面具有偏好。此外,我们还展示了当在已知最优基础为几何自适应谐波的常规图像类别上进行训练时,网络的去噪性能接近最优。
Oct, 2023
使用生成网络和自编码器对带有噪声的图像进行去噪,当给定一个 $k$ 维码时,自编码器能将噪声能量减小到 $O (k/n)$,并且使用一个梯度算法的生成模型能将噪声能量降低到 $O (k/n)$。
May, 2018
深度神经网络在反问题如降噪方面表现出色,但对抗性或最坏情况扰动敏感,本文研究了添加正态噪声的正则化技术 jittering 是否有效于学习最坏情况下鲁棒的反问题估计器。通过对线性降噪器进行分析表明,jittering 能够产生最佳的鲁棒降噪器。此外,通过对自然图像降噪、反卷积和磁共振成像(MRI)的深度神经网络(U-nets)进行实证研究,结果显示 jittering 显著提高了最坏情况下的鲁棒性,在除降噪之外的反问题中可能存在非最优情况,同时结果暗示通过对含有轻微噪声的真实数据进行训练,也能够提升鲁棒性。
Jul, 2023
通过理论支持,本文提出一种优雅而有效的加权策略,解决了扩散模型中常数加权策略带来的估计偏差问题。并通过实证评估表明,提出的去偏估计方法在样本质量、训练效率和采样效率方面均显著优于基准方法。
Oct, 2023
研究旨在提出一种名为 DENEB 的方法,通过 Gaussian Mixture Model 选择偏见对齐的数据,使用基于熵的采样概率来训练最终模型,此方法在多个基准测试上实现了更好的去偏置性能。
Dec, 2022
本文提出一种基于 Stein's unbiased risk estimator(SURE)的方法,从含有高斯噪声的图像数据中训练深度学习去噪网络,在没有无噪声图像的情况下使用 SURE 方法,使得网络的性能接近于使用有噪声图像的有监督学习方法,同时使用 SURE 方法进行快速后处理可以进一步提高性能。
Mar, 2018
利用 DNN 设计通用的离散去噪器(Neural DUDE),无需额外的训练数据,通过伪标签和新颖的目标函数实现无监督学习,能够在选择超参数的系统规则条件下,在多个应用中显著优于现有技术。
May, 2016