梯度不是唯一所需
本文针对深度学习建立在梯度下降收敛局部极小值的基础上这一保证在生成对抗网络等存在多个交互损失的情况下失效问题,研究了 N 人不可微分博弈的动态性,提出了一种新的算法 Symplectic Gradient Adjustment (SGA) 可以在更一般的情境下应用,并有基于理论保证的鲁棒性。
May, 2019
神经网络的反向传播过程利用了自动微分的基本要素,通过前向模式的自动微分或 Jacobian 向量乘积 (JVP) 来计算损失函数的方向导数,并使用随机采样的不同概率分布计算这些方向导数,本文对这些方法进行了严格的分析并给出了收敛速率,同时还进行了在科学机器学习中部署的计算实验,特别是应用于物理信息神经网络和深度算子网络。
Oct, 2023
本文介绍了自动求导实现与非平滑函数导数求解之间的关系,提出了一种非平滑微积分方程,并阐明其在随机逼近方法中的应用,同时证明了算法求解导数可能产生的人工临界点问题,并演示了通常方法如何以概率为一避免这些点。
Jun, 2020
本文介绍了一种使用受限神经网络架构来实现计算涉及到维度导数的微分算子的方法,改进了反向传播计算图,使其可以实现有效提取维度导数。该方法在一些应用场景中具有较低的复杂度,包括计算流体力学中的发散度、连续正规化流的精确密度计算以及训练随机微分方程模型中的 Fokker–Planck 方程求解。
Dec, 2019
通过大规模模型、海量数据集、加速硬件和可微分编程的变革力量,人工智能最近取得了显著进展。不仅可以以端到端的方式对复杂计算机程序进行微分,还可以优化程序参数。可微分编程建立在自动微分、图模型、优化和统计学等多个计算机科学和应用数学领域的基础上,本书全面评估了不同 iable 编程的基本概念。通过优化和概率的两个主要视角,我们介绍了两者之间的明显相似之处。可微分编程不仅仅是程序的微分,还包括为微分而设计的富有思考的程序,通过使程序可微分,我们自然引入了与程序输出相关的概率分布,从而提供了量化不确定性的手段。
Mar, 2024
本文提出一种新的自动求导方法 —— 一步法微分(Jacobian-free backpropagation),其性能可与隐式微分方法相媲美,并为快速算法(如超线性优化方法)提供了解决方案。其中使用特定的例子(如牛顿法和梯度下降法)对其进行全面的理论近似分析,并揭示了其在双层优化中的应用。通过多个数值示例,证明了这种一步估计器的正确性。
May, 2023
本篇论文介绍了可微编程的概念,研究如何将张量网络算法编程为可完全微分,提出了稳定的张量分解自动微分方法和通过迭代固定点实现反向传播的技术,应用于 Ising 模型和 Heisenberg 模型,取得了较好的优化效果。
Mar, 2019
通过将优化器转换为可微分操作的方法,我们提出了一种扩展端到端学习的方法。该方法依赖于随机扰动优化器,并可以与现有求解器一起使用。我们还展示了如何将此框架与结构预测中开发的一系列损失相连接,并为其在学习任务中的使用提供了理论保证。
Feb, 2020