实用黎曼神经网络
本篇论文提出了一种名为 adaQN 的随机拟牛顿算法,用于解决循环神经网络 (RNN) 训练中的梯度消失 / 爆炸问题,该方法使用了一种新的 L-BFGS 缩放初始化方案,并且在存储和保留 L-BFGS 曲率对方面非常明智,实践表明 adaQN 与流行的 RNN 训练算法有相当的竞争力。
Nov, 2015
本文提出了一种具有优越性能的 Riemannian 随机拟牛顿算法,以减少大量但有限的损失函数的平均值,在不确定性的情况下实现了加、减、平均多个梯度,并在消去和向量传输术语下,对非凸和收缩凸函数进行了收敛性分析,并在对称正定流形的 Karcher 平均值计算以及 Grassmann 流形的低秩矩阵完成方面进行了评估与实验,均表明该算法胜过当前最先进的批量和随机梯度算法。
Mar, 2017
本论文研究基于 Riemannian 几何的新方法,探索深度神经网络在流形之间的映射及其导致的结构,指出其 pullbacks 在其他流形上生成了诱导偏度量空间的退化 Riemann 度量,给出了这种映射的理论性质,并在实用神经网络中应用其几何框架
Dec, 2021
本文介绍了四种用于神经网络训练的算法,它们分别适用于不同的可扩展性限制。这些算法基于微分几何的理论,并基于自然梯度使用 Fisher 信息矩阵,或基于 Hessian 方法并缩小尺度以实现可扩展性,同时保持它们的一些关键数学性质。
Mar, 2013
本研究通过将残差神经网络(ResNet)推广至广义黎曼流形,从几何角度提供了一种方法,用以解决在图结构和自然科学中遇到的具有层次结构或流形值数据的学习问题。实验结果表明,与已有的针对双曲空间和对称正定矩阵流形进行学习的流形神经网络相比,我们的黎曼流形残差神经网络在相关测试指标和训练动态方面都表现出更好的性能。
Oct, 2023
神经网络在生活中起着至关重要的作用,最现代的生成模型能够取得令人印象深刻的结果。本文将几何框架应用于研究神经网络,探讨卷积、残差和递归神经网络,以及非可微激活函数的情况,并通过图像分类和热力学问题的数值实验来说明研究结果。
Apr, 2024
本文研究了使用自然梯度算法在深度学习中的应用以及其与其他三种方法的联系,并提出了使用未标记数据提高自然梯度算法推广误差鲁棒性的新方法,并将自然梯度算法扩展到包括第二阶信息和流形信息。
Jan, 2013
本文介绍了一种基于 Riemann 流形的批量归一化算法,利用 Riemann 流形上的几何操作和结构化矩阵变换进行设计,提出了一种新的流形约束梯度下降算法,在三个不同的数据类型上进行实验证明其可以提高分类性能和鲁棒性。
Sep, 2019
介绍了一种针对非可微模型的新型随机梯度下降(SGD)方法,利用渐进平滑逼近方法提高了渐进平滑逼近的精度,并证明了收敛到原始目标的固定点,在实验中表现出了简单、快速、稳定的特点,并实现了工作归一化方差的数量级降低。
Feb, 2024