通过集合论理解泛化
研究探讨了机器学习中的问题,特别是当模型在不同于训练数据的数据上进行测试时,模型很容易出现失败的现象,主要依靠发现数据的因果结构、找到可靠的特征并进行推广算法等方面展开探讨。
Mar, 2021
本文主要研究小规模算法生成数据集上神经网络的泛化能力,探讨数据效率、泛化、学习速度等问题,并阐述了小数据集规模下泛化效果提高的过程、超拟合点后仍可能的泛化提升,以及小数据集可能促进过参数神经网络的泛化能力研究。
Jan, 2022
本文介绍了一种超越当前流行的最坏情况的理论控制框架,重新审视神经网络的统计力学的古老理论,并使用一个名为 VSDL 的模型来描述当算法过早停止或输入加噪声时会增加的温度和减少的数据量对深度神经网络的控制效果,进而提供了关于其过度拟合训练数据、学习算法波动和转变的一种新的定性描述。
Oct, 2017
本文提出了实验研究的数学形式化方法,并发展了一个可量化的泛化概念,旨在探索现有研究的泛化性,并估计实现新研究泛化性所需的实验数量,为此我们应用两个最近发表的基准测试来区分可泛化和不可泛化的结果,并发布了一个 Python 模块,可以用于其他实验研究的分析。
Jun, 2024
该研究通过系统实验和理论构建发现,传统方法很难解释为什么大型神经网络的泛化性能良好,即使加入正则化仍然不会改变随机标记训练数据的状态,因为只要参数数量超过数据点数量,简单的两层神经网络就能实现完美的有限样本表达能力。
Nov, 2016
本文综述了神经网络模型不同抽象级别的概念、建模方法和最近的研究发现,包括网络模型的概括、分布、域、任务、模式和范围的泛化,着重于在各泛化层次上存在的问题,例如过拟合问题和域适应问题。
Sep, 2022
本文提出了一种新颖的基于测度论的机器学习理论,不需要统计假设。基于该理论,提出了一种新的深度学习正则化方法,并表明其在 CIFAR-10、CIFAR-100 和 SVHN 中优于之前的方法。此外,该提出的理论为深度学习中的一族实际成功的正则化方法提供了理论基础。与统计学习理论不同,该提出的学习理论通过测度论分析每个问题实例,而不是通过统计分析一组问题实例,因此提供了不同类型的结果和见解。我们还讨论了该结果对一次性学习、表示学习、深度学习和课程学习的几种后果。
Feb, 2018
本研究系统地总结了机器学习中的系统化推广方法,并从经典派和联结派等不同角度介绍了其相关信息。我们重点讨论了不同类型的联结派及其如何处理推广问题,并探讨了在语言、视觉和 VQA 等领域中的应用。此外,我们还讨论了相关的变量绑定和因果问题,并简要介绍了最新的研究进展,希望能为未来的研究提供一定的背景和参考。
Nov, 2022