基于 VC 维的关系学习泛化界
开发了一种在没有约束条件的情况下近似计算 VC 维度的方法,该方法基于经验风险最小化学习范式,用于表征概念类的粉碎性质。
Aug, 2023
本研究解决了深度神经网络导函数的最优 Vapnik-Chervonenkis 维度(VC-dimension)和伪维度估计的问题,并将其应用于机器学习方法中涉及函数导数的损失函数的学习误差估计,从而填补了包括物理为基础的机器学习模型和应用程序(例如生成模型、解决偏微分方程、操作学习、网络压缩、提取、正则化等)的学习误差估计的空白。
May, 2023
研究 PAC 学习模型下,哪些函数类别可以被测试得比学习更高效的问题,发现 VC 维度本身并不能始终提供紧密的边界,但可以与其类似的 LVC 维度相结合,获得强大的下限,进而在测试区间并集、半空间、多项式阈值函数、决策树等方面获得了强大且几乎最优的下限,同时表明 Juntas 和单调函数是可以通过多项式样本测试的。此外,通过 VC 维度和属性测试之间的联系,还建立了测试半径聚类和测试线性约束系统可行性的新下限。
Dec, 2020
本文提出了一个正则化框架下的向量值学习算法的一般化分析。该论文扩展了现有假设空间,损失函数平滑性和低噪声条件的限制。此外,作者还将这些结果应用于多类别和多标签分类。
Apr, 2021
本文提出了基于 Wasserstein 距离的预期泛化误差界限,并分别介绍了全数据集、单字母和随机子集限制,以及从 Steinke 和 Zakynthinou [1] 的随机子抽样设置中的类似物。此外,当损失函数有界且选择 Wasserstein 距离中的度量时,这些界从相对熵的基础上得到了更好的下限 (因此是更紧的)。在特定情况下,这些结果可以被看作是考虑了假设空间几何和基于相关熵的界限之间的桥梁。另外,本文还介绍了如何基于这些界限产生各种新的界限,并使用类似的证明技术得出关于后向通道的类似界限。
Jan, 2021
我们使用在线到批次转换范例,给出了从依赖数据源中获取的样本训练的统计学习算法的泛化界限,包括期望值和高概率。我们表明,统计学习器在依赖数据环境中的泛化误差等同于独立同分布环境中的泛化误差,除了一个依赖于底层混合随机过程的衰减速率且与统计学习器复杂性无关的项。我们的证明技巧涉及基于 Wasserstein 距离定义在线学习算法稳定性的新概念,并利用基于依赖随机变量的 “近似鞅” 浓度界限,得出了统计学习算法在依赖数据上的泛化误差的适当上界。
May, 2024
提出了一种新的学习算法,利用基于 Vapnik 维度的泛化界限定了算法的误差上界,并根据学习任务的特性使用一种依赖于尺度的维度定义,获得了新的打包数边界和样本复杂度上界,进而得到了一系列关于学习性质和可学性的充分条件和必要条件。
Apr, 2023
本文利用 U 统计和 Rademacher 复杂性分析方法,针对度量学习和相似度学习,推导出了一种新的泛化边界方法,证明了 L1 范数正则化的稀疏度量学习和相似度学习可能比 Frobenius 范数正则化的模型具有更好的边界效果。
Jul, 2012