通过全层间隔改进深度网络的样本复杂度和鲁棒分类
本篇论文提出了一种新的损失函数,通过对深度神经网络中任意一组层(包括输入和隐藏层)的度量度量范数施加边缘来实现任意选择度量的边缘的深度网络。本文的损失具有较好的特性,适用于小训练集,分类和鲁棒性等任务,与现有数据扩增和正则化技术相辅相成。
Mar, 2018
在这项研究中,我们分析了在不同环境下基于边界距离的泛化预测方法,并提出了一种融合基础数据流形的新的基于边界距离的度量,该度量在大多数情况下能更好地预测泛化。同时,我们对这种方法的实用性和局限性进行了分析,并发现这个度量与之前的工作的观点是吻合的。
May, 2024
通过对深度神经网络的一种复杂性度量,即几何复杂性,进行研究,我们提出了一种新的上界推导出的泛化误差,该泛化误差与网络的几何复杂性的边际归一化相关,并适用于广泛的数据分布和模型类。同时,我们对 ResNet-18 模型在 CIFAR-10 和 CIFAR-100 数据集上进行实验证明该广义化界是准确的。
May, 2024
通过对深度神经网络上梯度下降算法的实证研究发现,通过训练集中带宽分布曲线的曲线下面积来量化模型的泛化性能是更精确的方法,并且在加入批量规范化和权重衰减的情况下得到的训练点会收敛到同一个渐近边界,但其高容量特征并不一致。
Jul, 2021
基于输入边界的约束边界测量被证明在深度神经网络的泛化能力预测上具有很高的竞争力,这为泛化和分类边界之间的关系提供了新的见解,并强调了在深度神经网络的泛化研究中考虑数据流形的重要性。
Aug, 2023
通过开发一个鲁棒的训练算法和有效计算神经网络的 Lipschitz 常数的方法,可以直接操控输入空间的决策边界,提高深度分类器对抗性扰动的鲁棒性。在 MNIST、CIFAR-10 和 Tiny-ImageNet 数据集上的实验证实了该算法的竞争性改进。
Sep, 2023
该论文研究发现,交叉熵等损失函数不能很好地预测深度神经网络的泛化能力,作者提出了一种基于边缘分布的测量方法,它可以被应用在任何架构的前馈深度网络上,并指出这个方法可能会提示新的训练损失函数的设计来实现更好的泛化。
Sep, 2018
本文研究了 Leaky ReLU 神经网络的全局最优性,证明了线性可分对称数据上的梯度流算法能够收敛于全局最优的 “max-margin” 解,同时还对梯度下降在训练初期的 “简单度偏向” 现象进行了理论解释。
Oct, 2021
本文提出了一种基于边界的多类神经网络概化界限,其与神经网络谱规范化的 “谱复杂度” 成比例,谱规范化的含义是权重矩阵谱范数的乘积与一定的校正因子。在 mnist 和 cifar10 数据集上,使用 SGD 训练标准的 AlexNet 网络进行了实验研究,同时使用原始标签和随机标签,结果显示:界限、Lipschitz 常数和超限风险都直接相关,这表明 SGD 选择的预测器的复杂度与学习任务的难度成比例。
Jun, 2017
分析了具有同质性激活函数的两层神经网络在无限宽的情况下的训练和泛化行为,并表明在存在低维结构的情况下,梯度流的极限可以完全表征为某些函数空间中的最大间隔分类器,并且具有强的泛化边界,在实践中符合两层神经网络的行为,并证明了其隐式偏差的统计优点。
Feb, 2020