可扩展的模块化规范优化
本研究提出了一种新的对归一化方法和权值衰减的目的和功能的视角,并建议了几种常用 L2 批归一化的替代方案,包括 L1 和 L∞范数中的归一化,以提高计算和内存效率,并且在低精度实现中大幅提高了数值稳定性,并且还提出了一种改进重要性重归一化的方法,可以提高其在大规模任务上的性能。
Mar, 2018
通过引入一种快速的迭代方法,可以最小化权重的 L2 范数,同时提高了测试准确率,从而为小批量数据提供了一种替代 CIFAR-10 和 ImageNet 的 ResNet-18 中的批量和分组规范化方法
Feb, 2019
利用矩阵流形的几何性质,我们提出了一种自动优化方法,对神经网络的归一化参数进行优化。通过层次化的权重归一化以限制利普希茨常数并增强梯度的可靠性,使训练后的网络适用于控制应用。通过初始化网络和根据初始化网络的 2-2 增益对数据进行归一化,我们的方法首先对网络进行初始化。然后,所提出的算法基于高维球面上的指数映射来进行更新。给定一个更新方向(如负内腔梯度),我们提出了两种不同的方式来确定下降的步长。第一种算法利用目标函数沿着组合球面流形上定义的更新曲线进行的自动微分。利用方向二阶导数信息,无需显式构造海森矩阵。第二种算法利用架构感知的主导次数极小化框架进行神经网络的优化。通过这些新进展,所提出的方法避免了手动调优和学习率的调度,从而为优化归一化神经网络提供了自动化的流程。
Dec, 2023
介绍了一种基于卷积结构的归一化方法 (Convolutional Normalization),它可以方便地作为模块嵌入到任何卷积神经网络 (ConvNets) 中,通过提高权重的正交性和每层的通道等距性,减小权重矩阵的层范数,提高网络的 Lipschitzness 并且提高 GAN 性能和普适性。
Mar, 2021
该研究论文介绍了一种改进神经网络正则化器的方法,该正则化器不仅能对权重衰减,还能考虑权重尺度偏移对正则化的影响,有效地限制神经网络的内在范数,并优化了对抗强度以提高泛化性能。
Aug, 2020
通过渐进式的模块化增长,研究表明,模块化网络在记忆任务上具有更好的性能、更强的泛化能力和对某些扰动的鲁棒性,即使只有模块之间的连接被训练,结构拓扑引入的归纳偏置足够强大,使得网络在固定了模块内连接的情况下仍能表现良好,并且逐渐模块化增长的循环神经网络能够在进化时间尺度上学习越来越复杂的任务,并且有助于构建更可扩展且可压缩的人工网络。
Jun, 2024
神经网络对模块化算术任务的学习受限,无法很好地进行推广;然而,在文献中已知有一种多层感知机(MLP)网络权重的解析解适用于模块化加法任务,本文将这种解析解的类别扩展到包括模块化乘法和具有多个项的模块化加法。此外,我们展示出在这些数据集上经过训练的真实网络通过泛化(理解)学习类似的解,我们结合这些 “专家” 解来构建在任意模块化多项式上具有推广性的网络,并猜测通过神经网络训练的模块化多项式可被分类为可学习和不可学习,并提供了支持我们观点的实验证据。
Jun, 2024
稀疏化技术在大规模神经模型运行中减少计算成本的常用方法之一。本文提出了一种新的循环神经网络(RNNs)稀疏化技术,称为模量规则化,结合幅值修剪。通过使我们的规则化术语明确成几何形式,我们首次对我们的神经网络的期望稀疏架构进行了先验描述。验证了我们的方案对导航和自然语言处理 RNNs 的有效性。
Jun, 2024
本研究针对深度网络权重空间中的对称性问题,探讨了使用基于单位范数的约束来改善权重空间对称性问题的方法,并通过 MNIST 数据集上的实验证明该方法优于批量归一化方法且不会影响权重更新的计算性能。
Nov, 2015
该论文介绍了 RMSNorm 和 pRMSNorm,这是相对于对传统的 LayerNorm 进行改进,可使神经网络模型更具有稳定性和更快的收敛能力,同时保持了输入重新缩放的不变性,通过实验证明,RMSNorm 可以在不降低性能的情况下显著减少计算成本。
Oct, 2019