利用深度强化学习优化自动微分
本文提出一种新的自动求导方法 —— 一步法微分(Jacobian-free backpropagation),其性能可与隐式微分方法相媲美,并为快速算法(如超线性优化方法)提供了解决方案。其中使用特定的例子(如牛顿法和梯度下降法)对其进行全面的理论近似分析,并揭示了其在双层优化中的应用。通过多个数值示例,证明了这种一步估计器的正确性。
May, 2023
神经网络的反向传播过程利用了自动微分的基本要素,通过前向模式的自动微分或 Jacobian 向量乘积 (JVP) 来计算损失函数的方向导数,并使用随机采样的不同概率分布计算这些方向导数,本文对这些方法进行了严格的分析并给出了收敛速率,同时还进行了在科学机器学习中部署的计算实验,特别是应用于物理信息神经网络和深度算子网络。
Oct, 2023
提出了一种基于强化学习的方法,自动化优化逻辑综合过程,通过训练 Actor Critic(A2C)智能体来实现无人工干预的设计优化,取得了较好的优化结果。
Nov, 2019
该论文提出了自动隐式微分,一种隐式微分优化问题的高效且模块化的方法,将隐式微分和自动微分的优点结合起来,可应用于包括双层优化问题和分子动力学的敏感性分析等的各种应用领域。
May, 2021
基于反向传播的迭代微分逼近方法使得神经网络的优化成为可能,但目前仍然计算代价高昂,尤其是在大规模训练模型时。本文提出了一种计算效率高的神经网络优化替代方案,既能降低神经网络的扩展成本,又能为低资源应用提供高效的优化。通过数学分析其梯度,我们推导了一个明确的解决方案用于简单的前馈语言模型 (LM)。该解决方案可以推广到基于正值特征训练的所有单层前馈 softmax 激活神经模型,我们通过将该解决方案应用于 MNIST 数字分类问题进行了验证。在 LM 和数字分类器的实验中,我们发现在计算上,明确的解决方案可以接近最优解,同时证明了:1) 迭代优化对明确解决方案参数的改进仅有微小影响,2) 随机初始化参数通过迭代优化逐渐趋向于明确的解决方案。我们还初步将明确的解决方案局部应用于多层网络,并讨论了随着模型复杂性增加的解决方案的计算节约。对于明确解决方案的单层和多层应用,我们强调仅通过反向传播无法达到这些最优解,即只有在应用明确解决方案后才能发现更好的最优解。最后,我们讨论了解决方案的计算节约以及它对模型可解释性的影响,并提出了为推导复杂和多层体系结构的明确解决方案的未来方向。
Nov, 2023
本研究探讨了在统一强化学习框架中学习机器人硬件和控制参数的问题,提出了将机器人身体建模为 “硬件策略” 的方法,并通过自动可微的计算图优化硬件策略与计算策略;最后通过设计两个实例并将学习到的参数用于物理建模,证明了该方法的有效性。
Aug, 2020