通过系统地变化常用超参数来训练超过 10,000 个卷积网络,我们提出了深度网络推广的第一个大规模研究,并研究了来自理论界和经验研究的 40 多种复杂度衡量标准,探索每种衡量标准和推广之间的因果关系,并通过仔细控制的实验展示了一些衡量标准的惊人失败,以及进一步研究的有希望的衡量标准。
Dec, 2019
神经网络在超参数化设置中的泛化界限无法达到紧致性,除非在总体分布上具备合适的假设。
Sep, 2023
本文旨在探索深度神经网络泛化度量的可检测性,评估和比较探测单独层的泛化度量的有效性和鲁棒性。同时,我们介绍了一套新的训练模型和性能度量数据集 GenProb,用于测试泛化度量,模型调优算法和优化算法。
Oct, 2021
深度学习中的泛化是一个重要的问题,并且通过复杂度衡量的新进展有望更好地理解深度学习的机制,更好地应用于对未知数据的泛化,并提高模型的可靠性和鲁棒性。
Dec, 2020
本研究提出了关于深度学习的泛化误差的准则,介绍了一种基于边际似然的 PAC-Bayesian Bound 方法来预测泛化误差,并进行了广泛实证分析以评估该方法的效果和特性。
研究深度网络通用性的驱动因素,在考虑到规范基础控制、锐度和鲁棒性等因素后,发现尺度归一化对于通用性至关重要,并建立锐度与 PAC-Bayes 理论之间的联系,进一步探究这些措施如何解释已观察到的现象。
Jun, 2017
本文概述了现有理论和界限,以表征深度神经网络的泛化误差。
Aug, 2018
在这项研究中,我们分析了在不同环境下基于边界距离的泛化预测方法,并提出了一种融合基础数据流形的新的基于边界距离的度量,该度量在大多数情况下能更好地预测泛化。同时,我们对这种方法的实用性和局限性进行了分析,并发现这个度量与之前的工作的观点是吻合的。
May, 2024
通过评估理论限制,我们研究了神经网络在分类任务中确定稳定性和准确性的保证限制。我们考虑经典的分布无关框架和最小化经验风险的算法,同时受到一些权重正则化的约束。我们展示了一个庞大的任务集,对于这些任务,在给定的神经结构类中计算和验证理想的稳定和准确的神经网络是极其具有挑战性的,即使在这样的理想解在给定的神经结构类中是可行的。
该论文研究发现,交叉熵等损失函数不能很好地预测深度神经网络的泛化能力,作者提出了一种基于边缘分布的测量方法,它可以被应用在任何架构的前馈深度网络上,并指出这个方法可能会提示新的训练损失函数的设计来实现更好的泛化。
Sep, 2018