倒推学习倒推
通过 i-RevNet 网络的可逆性证明了深度卷积网络并不需要通过逐步丢弃输入信息来学习代表信息以获得泛化能力,并通过线性插值对模型学习到的信息进行了解释。
Feb, 2018
本文提出了一种部分学习方法,用于解决具有非线性正演算子的病态反问题。该方法利用经典正则化理论和深度学习的最新进展,通过对反问题的先验信息进行编码的正演算子、噪声模型和正则化函数来进行学习,其中包含每次迭代中的数据差异和正则化器的梯度做为卷积神经网络的输入。实验表明,与 FBP 和 TV 重建相比,所提出的方法在保证速度的同时,能够在 512 x 512 体积内产生 5.4dB 的 PSNR 提升。
Apr, 2017
探究如何在不知道正向模型改变详情的情况下,使用简单的模型适应方法,使得深度神经网络在计算成像的各种逆问题中,包括去模糊、超分辨率和磁共振成像中的欠采样图像重建方面,取得实证成功。
Nov, 2020
本文提出了一种通用框架来训练单个深度神经网络,以解决任意线性反问题,通过提供一个接近算子来实现这一目的,并在压缩感知和像素插值等任务中显示出优越的性能。
Mar, 2017
该研究提出了一种基于卷积神经网络的模型重建框架,实现了解决逆问题的途径。该框架克服了深度学习方法中过多参数所占用的训练数据和时间上的需求问题,并在重构图像方面取得了显著成果。
Dec, 2017
本文研究在 ReLU 激活的深度生成模型中,通过解决线性规划问题进行单层反演,证明了多层反演是 NP 难问题,提出了可在多项式时间内进行精确恢复的算法,并为恢复嘈杂观测提供了可证明的误差界限。
Jun, 2019
我们提出了一种逆向识别方法 (INVERT),通过利用学习表示与人可理解的概念之间的区分能力,实现了将学习表示与其对应解释相连接的可扩展方法。此方法具有较低的计算复杂度并且不依赖于分割掩码的可用性,还提供了一个可解释的度量来评估表示与其相应解释之间的一致性并提供统计显著性的度量值,强调其实用性和可信度。我们展示了 INVERT 在各种场景中的适用性,包括识别受偶然相关性影响的表示以及对模型中决策层次结构的解释。
Nov, 2023
这篇文章提出了一种基于 Deep Equilibrium Models 的方案,通过无限循环的迭代,不断提高图像逆问题的重建精度,同时在测试时可以根据不同场景的需求选择不同的计算预算以优化精度和计算的权衡。
Feb, 2021
使用深度卷积神经网络,结合直接反演、多分辨率分解和残差学习等技术来解决病态反问题,实验证明,在稀疏采样下,该方法能在不到一秒的时间内重建 512 x 512 的图像,取得了比迭代正则化平滑重建更好的效果。
Nov, 2016
地学和遥感数据的大规模时空 / 频率尺度导致使用卷积神经网络进行(次表面)数据分割时会出现内存问题。这项研究关注基于电报方程的全可逆网络,通过与以压缩形式直接包含卷积核的层相结合,解决了卷积核数量激增的问题。此外,我们展示了如何以非标准的方式利用可逆网络,在高光谱土地利用分类、空中地球物理勘测和地震成像等领域使用大数据量进行处理,而无需分块处理、降维或类似方法。
Jun, 2024