使用无雅各比传递正向传播训练隐式网络进行图像去模糊
本研究提出一种名为 Jacobian-Free Backpropagation 的算法,用于优化隐式网络的反向传播过程,以节省训练时间和实现难度,并在测试精度方面保持与前沿水平相当,同时仍能满足固定内存成本的需求。
Mar, 2021
本文提出了一种将全局结构化计算形式化整合到深度计算架构中的方法,其核心是开发了一种新的基于矩阵变化的 backpropagation 理论和实践,该方法广泛适用于机器学习或计算感知问题,我们在 BSDS 和 MSCOCO 基准测试中执行视觉分割实验,结果表明端到端训练的基于第二阶池化和归一化切割层的深度网络,使用矩阵反向传播优于没有利用全局层的对应网络。
Sep, 2015
本文提出了几种方法来提高基于深度学习的图像去模糊的稳定性,包括使用小型神经模型和引入预处理步骤。数值实验证实了这些方法的精度和稳定性,尤其是基于模型的框架在视觉精度和鲁棒性之间提供了最可靠的平衡。
May, 2023
本文提出一种新的自动求导方法 —— 一步法微分(Jacobian-free backpropagation),其性能可与隐式微分方法相媲美,并为快速算法(如超线性优化方法)提供了解决方案。其中使用特定的例子(如牛顿法和梯度下降法)对其进行全面的理论近似分析,并揭示了其在双层优化中的应用。通过多个数值示例,证明了这种一步估计器的正确性。
May, 2023
该研究论文提出了一种完全不需要使用反向传播的训练框架,通过引入压缩张量方差缩减方法和混合梯度评估方法,以及利用稀疏网格方法估计损失函数中的导数,该方法在训练规模和效率方面存在多个技术贡献,同时在 MNIST 数据集上与标准一阶训练相比,仅略有损失准确性,并成功地应用于物理建模相关的神经网络训练,这种无需反向传播的高效低内存方法有望在资源受限的平台上进行即将到来的设备端训练应用。
Aug, 2023
本文提出了一种部分学习方法,用于解决具有非线性正演算子的病态反问题。该方法利用经典正则化理论和深度学习的最新进展,通过对反问题的先验信息进行编码的正演算子、噪声模型和正则化函数来进行学习,其中包含每次迭代中的数据差异和正则化器的梯度做为卷积神经网络的输入。实验表明,与 FBP 和 TV 重建相比,所提出的方法在保证速度的同时,能够在 512 x 512 体积内产生 5.4dB 的 PSNR 提升。
Apr, 2017
基于反向传播的迭代微分逼近方法使得神经网络的优化成为可能,但目前仍然计算代价高昂,尤其是在大规模训练模型时。本文提出了一种计算效率高的神经网络优化替代方案,既能降低神经网络的扩展成本,又能为低资源应用提供高效的优化。通过数学分析其梯度,我们推导了一个明确的解决方案用于简单的前馈语言模型 (LM)。该解决方案可以推广到基于正值特征训练的所有单层前馈 softmax 激活神经模型,我们通过将该解决方案应用于 MNIST 数字分类问题进行了验证。在 LM 和数字分类器的实验中,我们发现在计算上,明确的解决方案可以接近最优解,同时证明了:1) 迭代优化对明确解决方案参数的改进仅有微小影响,2) 随机初始化参数通过迭代优化逐渐趋向于明确的解决方案。我们还初步将明确的解决方案局部应用于多层网络,并讨论了随着模型复杂性增加的解决方案的计算节约。对于明确解决方案的单层和多层应用,我们强调仅通过反向传播无法达到这些最优解,即只有在应用明确解决方案后才能发现更好的最优解。最后,我们讨论了解决方案的计算节约以及它对模型可解释性的影响,并提出了为推导复杂和多层体系结构的明确解决方案的未来方向。
Nov, 2023
在这篇论文中,我们通过消除 Forward-Forward Continuous Learning (FFCL) 的最后两个阶段和完全去除常规的反向传播,而仅仅依靠本地更新来解决常规反向传播在生物大脑中的局限性,从而提出了一种更具生物可行性的学习方法。
May, 2024
该研究提出了一种有效的计算方法,通过对全梯度的精简计算以及对梯度进行稀疏选择,来提高卷积神经网络中反向传播的计算效率,实验结果表明只有 5% 的梯度需要上传就可以达到原始 CNN 的效果甚至更好。
Sep, 2017