离散时间连续幅度信号的通用降噪
提出了一种用于简化离散扩散的数学简化方案,同时还提出了一种能够精确和加速采样的简单公式,并通过创建一个统一的模型,简化离散扩散的前向和后向概率计算,取得了在现有数据集上优于其他方法的效果。
Feb, 2024
通过最小化经验估计损失函数,从噪声受损数据中适应性地学习参数的神经网络 DUDE 的去噪损失限制类似于监督学习中标准经验风险最小化器(ERM)的泛化误差下限。我们表明其本质上也存在于去噪损失限制中,在所有有界的网络参数和所有基础干净序列上都能一致地保持其无偏估计损失集中于真实去噪损失,这是我们开发的关键工具。最后,我们证明了 Neural DUDE 的超参数可以从一个小的验证集中选择,以显著提高去噪性能。
Sep, 2017
该研究提出了第一个完整的离散数据扩散模型去噪声的连续时间框架,使用连续时间马尔可夫链模型可以有效地训练模型,利用高维 CTMC 模拟技术和连续时间框架可导出高性能抽样器,超越了离散时间方法。此外,还得到了关于生成样本分布与真实数据分布之间误差的新理论结果。
May, 2022
利用 DNN 设计通用的离散去噪器(Neural DUDE),无需额外的训练数据,通过伪标签和新颖的目标函数实现无监督学习,能够在选择超参数的系统规则条件下,在多个应用中显著优于现有技术。
May, 2016
该论文提出了一种名为 Denoising-based AMP (D-AMP) 的算法,可以集成各种去噪算法来优化压缩感知重构算法,并且通过分析理论特征,分析出 D-AMP 表现出色的原因在于其迭代中运用适当的 Onsager 校正项将信号扰动与去噪器设计目标接近,同时在自然图像高性能去噪器的辅助下加速十几倍,具有先进的 CS 重建性能。
Jun, 2014
通过自适应采样 / 主动学习策略,在高维度下扩展了通用降噪网络的训练方法,并将真实的规范损失景观进行多项式逼近,从而实现几乎两个数量级的训练时间缩短。我们在模拟的联合 Poisson-Gaussian-Speckle 噪声上进行了测试,并证明了使用我们提出的训练策略,在大范围的工作条件下,单个盲目的通用降噪器网络可以在专业降噪器网络的均匀界限内实现峰值信噪比。我们还使用具有不同数量的联合 Poisson-Gaussian-Speckle 噪声的小型图像数据集进行实验,并证明了使用我们的自适应采样策略进行训练的通用降噪器优于均匀训练的基准模型。
Oct, 2023
本文研究了基于深度学习的语音增强中的连续建模方法,重点关注降噪过程。通过引入一个状态变量来表示降噪过程,训练中使用类似 UNet 结构的神经网络学习估计连续降噪过程中的每个状态变量,测试时引入一个控制因子作为嵌入,可调整噪声削减水平。该方法可以实现可控语音增强,并适用于不同的应用场景。实验结果显示,在清晰目标中保留少量噪声有助于语音增强,从客观语音指标和自动语音识别性能的改善来验证。
Sep, 2023
通过实现一种统一的量化方式,消除训练和测试阶段的不匹配,使我们能够使用可完全区分的损失函数学习编码器。当遇到没有关于分布的假设时,这种方法的通用性可能会面临计算上的困难。最后,我们还展示了量化如何通过软量化实现,从而将压缩与无量化桥接起来。
Jun, 2020