i-RevNet:深度可逆网络
本研究展示了传统的 ResNet 模型可以被做成可逆的,这意味着同一个模型可以同时用于分类、密度估计和生成。令人惊讶的是,我们的方法只需要在训练时增加一个简单的归一化步骤,而不需要将维度分割或限制网络结构。作为一种生成模型,可逆的 ResNet 可以通过无标签数据的最大似然估计进行训练。为了计算似然,我们引入了一个可计算的对余块 Jacobian 行列式对数的近似值。实验证明,可逆 ResNet 在严格意义下表现出色,达到了同一个架构内同时具有现有最先进图像分类器和流式生成模型的性能。
Nov, 2018
该论文提出了一种构建可逆神经网络的新方法,具有类似于 ResNets 的架构并且能够作为生成模型使用,在 MNIST、CIFAR-10 和 ImageNet 32x32 数据集的分类和生成任务中均表现得出色
Jul, 2019
本文提出了一种具有恒定内存的迭代逆模型,利用可逆网络避免存储中间激活数据,可以在 MRI 图像重建任务中训练具有 400 层的模型,并在公共数据集上证明这些更深、更具表现力的网络实现了最先进的图像重建。
Nov, 2019
我们提出了一种逆向识别方法 (INVERT),通过利用学习表示与人可理解的概念之间的区分能力,实现了将学习表示与其对应解释相连接的可扩展方法。此方法具有较低的计算复杂度并且不依赖于分割掩码的可用性,还提供了一个可解释的度量来评估表示与其相应解释之间的一致性并提供统计显著性的度量值,强调其实用性和可信度。我们展示了 INVERT 在各种场景中的适用性,包括识别受偶然相关性影响的表示以及对模型中决策层次结构的解释。
Nov, 2023
本篇论文介绍了一种基于可逆 U-Net 结构的新型网络 iUNet,它采用了新颖的可学习可逆上下采样操作,可以在同样的 GPU 存储限制下,训练更深更大的网络,并用于建立正则化流模型。
May, 2020
提出了可逆解释网络,可以透明地应用于现有的神经网络架构,将原始表示转换为等效但可解释的表示,并通过仅草绘两个图像和无监督策略定义语义概念,以解释图像生成网络的分类和生成。
Apr, 2020
本文提出了一种新的深度学习方法来解决逆问题,采用端到端映射的形式,通过两个网络来处理物理正向模型的反演和输出去噪,达到对图像进行处理的目的。
Dec, 2017
提出了一种基于可逆网络的去噪方法 InvDN,通过将噪音输入转换成低分辨率的干净图像和包含噪音的潜在表示,再在反转时用来自先验分布的另一个采样的潜在表示来替换噪音表示,实现了对 SIDD 数据集最优的性能表现,且运行时间更短,模型大小只有最新 DANet 的 4.2%。
Apr, 2021
论文讨论卷积神经网络近似可逆性及其在稀疏信号恢复方面的数学模型,并给出一种精确的模型基础压缩感知与其恢复算法和随机权重 CNN 的连接。作者通过实验得出多个学习网络与数学分析一致,以简单的理论框架合理地重构实际图片。同时,作者也探讨了我们的模型假设与实际场景分类训练的 CNN 之间的差距。
May, 2017