JFB: 隐式网络的无 Jacobian 反向传播
通过在图像去模糊问题的背景下探索最近提出的无雅可比反向传播(Jacobian-free Backpropagation,JFB)方法,本文展示了 JFB 在减少计算成本方面与优化方案、最先进的前馈网络以及现有的隐式网络具有可比性。
Feb, 2024
本文提出一种新的自动求导方法 —— 一步法微分(Jacobian-free backpropagation),其性能可与隐式微分方法相媲美,并为快速算法(如超线性优化方法)提供了解决方案。其中使用特定的例子(如牛顿法和梯度下降法)对其进行全面的理论近似分析,并揭示了其在双层优化中的应用。通过多个数值示例,证明了这种一步估计器的正确性。
May, 2023
本篇文章介绍了一个简单而有效的策略,通过 Broyden's Method 的 Jacobian 估计来避免 DEQ 网络层的反向传播过程中需要解决的昂贵 Jacobian-based 方程。实验证明,仅通过再次使用此估计,就能显著加速训练同时不会导致任何性能退化。
Apr, 2023
基于反向传播的迭代微分逼近方法使得神经网络的优化成为可能,但目前仍然计算代价高昂,尤其是在大规模训练模型时。本文提出了一种计算效率高的神经网络优化替代方案,既能降低神经网络的扩展成本,又能为低资源应用提供高效的优化。通过数学分析其梯度,我们推导了一个明确的解决方案用于简单的前馈语言模型 (LM)。该解决方案可以推广到基于正值特征训练的所有单层前馈 softmax 激活神经模型,我们通过将该解决方案应用于 MNIST 数字分类问题进行了验证。在 LM 和数字分类器的实验中,我们发现在计算上,明确的解决方案可以接近最优解,同时证明了:1) 迭代优化对明确解决方案参数的改进仅有微小影响,2) 随机初始化参数通过迭代优化逐渐趋向于明确的解决方案。我们还初步将明确的解决方案局部应用于多层网络,并讨论了随着模型复杂性增加的解决方案的计算节约。对于明确解决方案的单层和多层应用,我们强调仅通过反向传播无法达到这些最优解,即只有在应用明确解决方案后才能发现更好的最优解。最后,我们讨论了解决方案的计算节约以及它对模型可解释性的影响,并提出了为推导复杂和多层体系结构的明确解决方案的未来方向。
Nov, 2023
隐式深度学习预测规则推广了前馈神经网络的递归规则。这种规则基于涉及单个隐含特征向量的不动点方程的解,因此只是隐式定义的。隐式框架极大地简化了深度学习的符号表示,并在新体系结构和算法、稳健性分析和设计、可解释性、稀疏性和网络架构优化等方面开辟了许多新的可能性。
Aug, 2019
在这篇论文中,我们通过消除 Forward-Forward Continuous Learning (FFCL) 的最后两个阶段和完全去除常规的反向传播,而仅仅依靠本地更新来解决常规反向传播在生物大脑中的局限性,从而提出了一种更具生物可行性的学习方法。
May, 2024
本文提出了一种将全局结构化计算形式化整合到深度计算架构中的方法,其核心是开发了一种新的基于矩阵变化的 backpropagation 理论和实践,该方法广泛适用于机器学习或计算感知问题,我们在 BSDS 和 MSCOCO 基准测试中执行视觉分割实验,结果表明端到端训练的基于第二阶池化和归一化切割层的深度网络,使用矩阵反向传播优于没有利用全局层的对应网络。
Sep, 2015
该研究论文提出了一种完全不需要使用反向传播的训练框架,通过引入压缩张量方差缩减方法和混合梯度评估方法,以及利用稀疏网格方法估计损失函数中的导数,该方法在训练规模和效率方面存在多个技术贡献,同时在 MNIST 数据集上与标准一阶训练相比,仅略有损失准确性,并成功地应用于物理建模相关的神经网络训练,这种无需反向传播的高效低内存方法有望在资源受限的平台上进行即将到来的设备端训练应用。
Aug, 2023