近邻插值器:快速规范增长与插值与泛化之间的权衡
本文提出了一种基于大偏差理论的模型平滑性的新颖描述方法,通过这种平滑性描述方法,阐述了为什么某些插值器能够表现出良好的泛化能力的统一理论解释,以及为什么一系列现代学习技术(如随机梯度下降,$L_2$- 范数正则化,数据增强,不变性结构和过度参数化)都能够发现这些插值器。这些方法提供了互补的程序,使优化器能够偏向更加平滑的插值器,而在这种理论分析下,这些插值器具有更好的泛化误差。
Jun, 2023
在神经切向(NT)区域的背景下,研究了过参数化现象和它们的推广误差特征,揭示了经验 NT 内核的特征并且证明了测试误差可以被无穷宽内核的核岭回归误差很好地近似。
Jul, 2020
本文分析局部插值方案,包括几何单纯插值算法和单一加权 k 近邻算法,在分类和回归问题中证明了这些方案的一致性或近一致性,并提出了一种解释对抗性示例的方法,同时讨论了与核机器和随机森林的一些联系。
Jun, 2018
本研究探讨了现代机器学习模型中广泛存在的过度拟合现象及理论预测,表明超学习风险会在满足一定条件的情况下逐渐减小,并且在两层神经网络中使用 ReLU 激活函数的情况下具有近最小化学习率的能力。同时,还发现当网络参数数量超过 O (n^2) 时,超学习风险开始增加,这与最近的实证结果相符。
Jun, 2021
本研究针对使用梯度流训练的深度线性网络的过度风险进行了边界限制,发现与最小 l2 范数插值的已知边界非常接近或者相等,深度并不能提高算法隐藏噪声的能力,并通过模拟数据验证了该边界的典型行为。
Sep, 2022
本研究在考虑一个欠定的,有噪音的线性回归模型,其中最小范数插值预测器因为一致性而被认为是有效的,研究者探究是否均匀收敛以及范数球时的学习机制能够解释其成功,发现虽然均匀收敛不能证明范数球中的学习,但可以用一种略弱但比较常见的方式解释最小范数插值器一致性的存在,同时该研究使用这种方式限定了低(但不是最小)范数插值器的泛化误差。
Jun, 2020
提供了最小 L1 - 范数插值器的预测误差的匹配上下界,实现了噪声下最小范数插值的渐进一致性,这是第一篇研究针对等向特征和稀疏真相的文献,补充了关于最小 L2 - 范数插值的 “良性过拟合” 的文献,当特征是有效低维时,才能实现渐进一致性。
Nov, 2021