双峰下的双重麻烦:懒惰模式中的偏差与方差
本文考虑使用随机特征空间,在测度无限趋近于无限,特征维度和样本量趋近于无穷大的情况下,利用结果回归模型和双下降现象等关键词解释深度学习模型中的奇妙现象。
Aug, 2019
本篇论文提出了一个回归模型的理论,在训练数据中具有比数据点更多的参数,这种模型被称为过度参数化模型,有能力插值训练数据,最好的模型是过度参数化的,与模型阶数呈双峰形。我们分析了最小二乘问题的最小化的解的内插模型,以及使用岭回归进行模型拟合的情况。同时也提出了一个基于回归矩阵最小奇异值行为的结果,可以解释测试误差随模型阶数的峰值位置和双峰形状。
Apr, 2023
将经验风险最小化与容量控制结合是机器学习中控制泛化差距和避免过拟合的经典策略。然而,在现代深度学习实践中,非常庞大的超参数化模型(例如神经网络)被优化以完美拟合训练数据,并且仍然具有出色的泛化性能。在插值点之后,增加模型复杂性似乎实际上降低了测试误差。本教程解释了双重下降的概念及其机制,并引入了具有关键作用的归纳偏差,通过选择一种平滑的经验风险最小化器,从多个插值解决方案中选择一个。最后,第三部分探讨了两个线性模型中的双重下降,并从最近相关的工作提供了其他视角。
Mar, 2024
通过对方差进行可解释的对称分解,探讨了深度学习算法的偏差与方差之间的关系,发现随着网络宽度的增加,偏差单调下降,但方差存在非单调行为,并可以通过集成学习消除互作用导致的方差发散。
Nov, 2020
本文在一个简单的样例中证明了双下降现象在欠参数化的情况下确实存在,同时探讨了岭回归正则化对模型泛化误差和范数的影响以及两种正则化方法之间的相互作用,结果表明它们不完全等效。
May, 2023
本文针对过度参数的最小范数线性估计器的双下降现象,借助一种称为代理随机设计的特殊确定点过程进行研究,该代理设计允许对估计器的平均平方误差进行精确表示,并且我们证明了对于代理设计,未正则化的最小范数估计器的隐式偏置恰好对应于在总体分布上解决岭正则化最小二乘问题的解。
Dec, 2019
传统统计学智慧揭示了模型复杂度和预测误差之间的关系,但最近的研究提出了双峰现象的理论,即在参数个数超过样本大小时,测试误差会出现第二次下降。本研究挑战了此理论,并通过对经典统计机器学习方法的细致研究,提出了双峰现象的解释,认为其位置与插值阈值无直接关联,并且通过采用非参数统计学的视角,证明其曲线实际上符合传统的凸形状,解决了双峰现象和统计直觉之间的矛盾。
Oct, 2023
深度学习模型参数通常大于所需,然而其测试误差在过拟合阈值附近有极值和下降,在过参数化区间反而下降,神经切向核模型可以提供有关真实神经网络的细节。
Aug, 2020
本文研究深度学习中的双下降现象,即当训练样本数 N 接近模型参数数 P 或者输入维度 D 时,神经网络的泛化误差会出现峰值,本文提供了理论解释,并探讨了非线性对此现象的影响及正则化方法的应用。
Jun, 2020
本文探讨了过度参数化模型,特别是深度神经网络,在训练期间错误率的演化现象,其原因是来自于不同部分在不同时期学习带来的偏差 - 方差权衡嵌套问题。通过合理调整步长,可以显著提高早停指标。
Jul, 2020