逐层反转深度生成模型
本文提出了一种基于乐观的概率方法进行逐层训练DeepAutoEncoder的过程,可以提高深度架构训练的性能,实验结果表明使用比生成模型更丰富的推理模型可以有效地提高性能。
Dec, 2012
本文简单证明根据生成模型产生的反向网络是正确的推理方法。在一个简单的生成模型中,证明前向神经网络是正确的推理方法,它通过实验证明了像AlexNet这样的现实的深度神经网络的边缘权重的行为类似于随机数。它利用生成模型来产生带有标签的合成数据,并将其包含在训练集中,为深度学习提供改进和标准训练方法。
Nov, 2015
论文讨论卷积神经网络近似可逆性及其在稀疏信号恢复方面的数学模型,并给出一种精确的模型基础压缩感知与其恢复算法和随机权重 CNN 的连接。作者通过实验得出多个学习网络与数学分析一致,以简单的理论框架合理地重构实际图片。同时,作者也探讨了我们的模型假设与实际场景分类训练的 CNN 之间的差距。
May, 2017
本文提出了一种具有恒定内存的迭代逆模型,利用可逆网络避免存储中间激活数据,可以在MRI图像重建任务中训练具有400层的模型,并在公共数据集上证明这些更深、更具表现力的网络实现了最先进的图像重建。
Nov, 2019
本文提出 Intermediate Layer Optimization(ILO)算法,用于使用深度生成模型解决逆问题,实验表明该算法在包括图像修复、降噪、超分辨率等领域表现优于现有方法。
Feb, 2021
该研究提出使用GAN作为先验来解决不适定的反演成像问题,并将方法应用于面部和材料的固有图像分解。该方法建立在GAN成功捕捉复杂图像分布的基础上,并展示了通过逆转多个GAN来维持分布先前的可能性,其是模块化的,可以成功地分解合成和真实图像,并利用GAN潜在空间的属性,提供了额外的优势,如图像重照。
May, 2023
生成模型反演问题的计算复杂性上界,包括精确反演和近似反演中的新的若干复杂性下界,以及使用约化方法从$k$-SAT问题得出的强指数时间假设(SETH)下的精确反演的计算复杂性的下界。
Sep, 2023
本研究评估了基于扩散、基于GAN和基于IMLE的方法在三个反向问题上的性能,即16倍超分辨率、着色和图像解压。总体上,我们发现基于IMLE的CHIMLE方法在提供有效解决方案和可靠的不确定性估计方面优于其他方法。
Dec, 2023
利用信息理论,本文通过在优化的一维双重差异空间中直接进行生成抽样,揭示了图像的分布特征以及像素之间的全局和局部依赖结构,提出了一种基于渐变插值的生成新样本的算法,并辅以减少样本复杂性的方法,证明了该方法优于现有的深度学习方法。
Apr, 2024