本文提出了一种通用框架来训练单个深度神经网络,以解决任意线性反问题,通过提供一个接近算子来实现这一目的,并在压缩感知和像素插值等任务中显示出优越的性能。
Mar, 2017
该研究提出了一种基于卷积神经网络的模型重建框架,实现了解决逆问题的途径。该框架克服了深度学习方法中过多参数所占用的训练数据和时间上的需求问题,并在重构图像方面取得了显著成果。
Dec, 2017
探究如何在不知道正向模型改变详情的情况下,使用简单的模型适应方法,使得深度神经网络在计算成像的各种逆问题中,包括去模糊、超分辨率和磁共振成像中的欠采样图像重建方面,取得实证成功。
Nov, 2020
本文提出了一种部分学习方法,用于解决具有非线性正演算子的病态反问题。该方法利用经典正则化理论和深度学习的最新进展,通过对反问题的先验信息进行编码的正演算子、噪声模型和正则化函数来进行学习,其中包含每次迭代中的数据差异和正则化器的梯度做为卷积神经网络的输入。实验表明,与 FBP 和 TV 重建相比,所提出的方法在保证速度的同时,能够在 512 x 512 体积内产生 5.4dB 的 PSNR 提升。
Apr, 2017
提出了一种基于可逆网络的去噪方法 InvDN,通过将噪音输入转换成低分辨率的干净图像和包含噪音的潜在表示,再在反转时用来自先验分布的另一个采样的潜在表示来替换噪音表示,实现了对 SIDD 数据集最优的性能表现,且运行时间更短,模型大小只有最新 DANet 的 4.2%。
Apr, 2021
使用深度卷积神经网络,结合直接反演、多分辨率分解和残差学习等技术来解决病态反问题,实验证明,在稀疏采样下,该方法能在不到一秒的时间内重建 512 x 512 的图像,取得了比迭代正则化平滑重建更好的效果。
Nov, 2016
本文介绍了在自然语言处理中,使用可逆神经网络(INNs)来同时优化分析和生成问题,克服问题间的模型差异,从而提高效率,在形态学问题中进行的试验表明,INNs 在语义和形态学层面上都具有出色的表现,并能预测输入参数。
Dec, 2019
本文提出一种通过 Range-Nullspace 分解的深度学习框架,为解决逆成像问题提供了一种新的范式。通过对数据空间进行分解,模型获得了更多的物理信息,可以有效提高神经网络的学习性能和实际表现。实验结果表明,该框架在压缩感知医学成像和自然图像超分辨率等任务中均具有优异的性能表现。
Nov, 2019
通过 i-RevNet 网络的可逆性证明了深度卷积网络并不需要通过逐步丢弃输入信息来学习代表信息以获得泛化能力,并通过线性插值对模型学习到的信息进行了解释。
Feb, 2018
本文探讨了逆问题的数学定义,提出了一种称为 Invertible Neural Networks (INNs) 的神经网络模型,利用预定义的正向过程和额外的 latent output variables 来解决参数估计问题,并在人工数据和实际问题中发现 INN 是解决参数分布分析、寻找多模态和相关性较强的关键性分析工具。
Aug, 2018