- 无监督神经网络在逆问题中的收敛与恢复保证
神经网络应用于解决反问题已经成为近年来的主要方法,本文旨在通过过参数化方式来控制神经正切核,提供了无监督前馈多层神经网络解决反问题的确定性收敛和恢复保证,并给出了对于具有平滑激活函数的两层深度逆先验网络的过参数化界限。
- 批量预测器在分布内通用化
研究批处理预测器的泛化特性,证明其具有与标准逐个样本方法相比指数级更强的泛化保证,并验证了在各种任务、架构和应用中的理论洞察力。
- 隐式深度学习中像训练测试
本文提出了问题,并在简单的情境下给出了详细的理论分析,证明了对于超参数化网络,与训练时相比增加测试时的内部迭代次数不能改善性能。
- ICLR证明等变强幸运票假设的一般框架
本文将 Strong Lottery Ticket Hypothesis(SLTH)推广至可保持群作用的网络,即 G-equivariant network, 并证明可以通过对随机初始化的过参数化 G-equivariant network - 大多数激活函数可在没有过度深度的情况下赢得彩票
深度神经网络训练中的强引理假设提出了剪枝的潜力,在 ReLU 激活函数网络中,通过从随机初始化的神经网络的子网络近似目标网络,可以用宽度呈对数比例增加、深度双倍的神经网络表示目标函数,文中证明可以实现深度加 1 的神经网络,预期可以在常用深 - 过度参数化提高对抗攻击的鲁棒性:一项复制研究
研究过参数化在机器学习中的应用,发现其在提高模型准确性和稳健性方面的作用还有待进一步探究,需要结合智能架构实现全面稳健。
- 量子神经网络过参数化理论
量子神经网络中的超参数化现象会影响其参数数量与损失函数空间的精细度,我们证明了由 QNN 的生成器获取的李代数维度是超参数化的界限,当 M≥M_c 时,QNN 的训练效果大大提高,相关结果也适用于变分量子算法和量子优化控制。
- 通过等周性得出的强韧普适定律
本文研究通过参数化模型类进行数据插值的现象与深度学习中使用数量远高于方程数的参数进行拟合训练的关系,证明了平滑插值需要的参数数量是简单插值的 $d$ 倍, 并将结果解释为改进的模型泛化边界。
- 两层神经网络的鲁棒性定律
研究显示神经网络的大小和唇氏常数之间存在固有的权衡,为保证唇氏恒定至少需要数据点数除以神经元个数的个数级别的神经元,过参数化(神经元数大于数据点数)是保证鲁棒性的必要条件,仅数据拟合仅需要 D 个数据点一个神经元。
- 神经网络中的插值相变:懒惰训练下的记忆和泛化
在神经切向(NT)区域的背景下,研究了过参数化现象和它们的推广误差特征,揭示了经验 NT 内核的特征并且证明了测试误差可以被无穷宽内核的核岭回归误差很好地近似。
- 双峰下的双重麻烦:懒惰模式中的偏差与方差
研究发现,通过过度参数化,深度神经网络能够在插值训练数据的同时实现卓越的泛化性能,并且在测试误差上具有双下降现象,该现象可以通过集成平均估计器进行抑制。
- 深度神经网络和神经切向等级的动态
本文研究了有限宽度的深度全连接神经网络中神经切向核的动态,并推导出一个无穷层次的普通微分方程组,它捕捉了深层神经网络的梯度下降动态。此外,在条件限制下,研究证明了 NTH 的截断层次近似于 NTK 的动态。这些描述使直接研究深度神经网络的 - 激活函数对超参数化神经网络训练的影响
研究论文探讨了激活函数对过度参数化神经网络训练的影响,指出了平滑的激活函数在训练中的优势和尺寸较小的数据维度可能导致训练速度变慢的问题,并讨论了这些结果的应用和推广。
- 理解泛化误差中过拟合的峰值:$l_2$ 和 $l_1$ 惩罚插值的分析风险曲线
本研究通过引入 MiSpaR(Misparametrized Sparse Regression)模型,表明过拟合峰值不能将经典阶段从现代阶段分隔开,数据内插本身不能保证良好的泛化能力,需要研究不同惩罚项下的内插状态。
- 深度学习中的经验风险景观 II
这项研究以理论和实验相结合的方式,对超参数化的 DCNN 的经验风险进行了表征,并提出了一个关于 DCNN 经验损失面的直观模型。