线性神经网络层促进单 / 多指数模型学习
本论文研究神经网络训练中的隐性偏差,探究梯度流和梯度下降的极限情况下,使用对数或指数损失函数对线性可分数据进行训练的深度线性网络的权重收敛于秩 1 矩阵的现象是否会发生于全连接层和跳跃连接层的 ReLU 激活前馈网络中,提出了一些训练不变性,并以特定参数方向收敛的 ReLU 网络的常数权重和多线性函数作为论据进行证明。
Jan, 2022
本研究使用混合整数优化、多面体理论、热带几何等技术探究神经网络单隐藏层能否学习到所有函数的普适逼近定理,为可表示函数的类提供了数学支持。同时,解决了 Wang 和 Sun (2005) 关于分段线性函数的一项猜想,并提出了表示具有对数深度函数所需神经网络的上限。
May, 2021
本文研究了使用线性阈值激活函数的神经网络,探究了这种类型的函数可以被表示的范围,证明了用两层隐藏层可以表示任何在这个范围内的函数。同时提出了一种算法,用于解决这种类型神经网络的经验风险最小化问题,可以在多项式时间内进行。基于这些研究发现,我们提出了一种新型神经网络 —— 快捷线性阈值网络。
Nov, 2021
本文指出了中间神经表现添加了深度学习网络的灵活性并且在原始输入上具有优势,并阐述了与浅学习者,如卷积内核的神经表现的关系。通过学习低秩的多项式,中间神经表现可以实现比原始输入更少的样本复杂度,并且在神经可切内核的情况下,本文还提出了神经表现不利的限制。
Jun, 2020
研究表明,完全连接的神经网络在非线性齐次时的表示成本收敛于非线性函数的排序上,然后研究了何时可以恢复数据的 “真实” 排名,最后发现自编码器具有最优非线性排名是自然的去噪声的。
Sep, 2022
本文提出深度神经网络可归纳地更倾向于寻找低秩嵌入的解,这种偏见在网络深度和宽度,初始化和训练过程中都存在,并且能够提高 CIFAR 和 ImageNet 数据集的泛化性能。
Mar, 2021
本文提出一种新型的神经网络构架,利用基于惩罚项的训练问题来编码激活函数,这种框架可以被应用于 block-coordinate descent 算法中,该算法可以在每次迭代中通过并行化数据点和 / 或层数来解决简单(没有隐藏层)的监督学习问题,实验结果表明该方法为标准神经网络提供了极佳的初始权重估计,并且对于使用参数优化激活函数、对抗噪声数据的拓展也提供了思路。
May, 2018
我们研究了无偏差 ReLU 网络的表现力和学习动态。我们首先展示了两层无偏差 ReLU 网络的有限表现力:它们只能表达线性的奇函数。然后我们证明,在数据对称条件下,这些网络具有与线性网络相同的学习动态,从而得到了某些特定两层无偏差 ReLU 网络的闭式时间课程解,这在非线性网络中尚未实现。虽然深层无偏差 ReLU 网络比两层网络具有更强的表现力,但它们仍然与深层线性网络有一些相似之处。这些相似之处使我们能够借鉴线性网络的见解,进而对无偏差 ReLU 网络有新的理解。总的来说,我们的结果表明,对于无偏差 ReLU 网络的某些属性是由于与线性网络等价而产生的,并且暗示加入偏差或考虑非对称数据是探索非线性行为的途径。
Jun, 2024
研究神经网络对回归问题的解决方法,针对两层 ReLU 网络探索了梯度优化引起偏差的一些现象,提出了一种新的支持度计算方法,得出实验证据,阐述了广义梯度下降和平方损失函数在训练中的优化困难。
Nov, 2022