关键词vapnik-chervonenkis dimension
搜索结果 - 7
- 多分布最优学习
多分布学习中的自适应采样算法解决了最坏情况风险最小化问题,并提供了样本复杂度的最优解,同时证明了随机化的必要性。
- 对比学习的最优样本复杂度
对比学习是一种学习数据表示的高效技术,研究文章主要关注对比学习的样本复杂度、维度表示和泛化准确性,并通过给出相关问题的 Vapnik-Chervonenkis/Natarajan 维度的界限来证明其在整数 p 的情况下所需的标记样本数量的几 - 关于 LAD 学习的研究
通过估计以具有小数目立方单项式的 DNF 为假设集的 LAD 模型的 Vapnik-Chervonenkis 维度,我们提出了一个理论上的证明,解释了 LAD 算法产生的二元分类器或二元规则不会过度拟合的原因,此外我们通过实证研究加以验证。
- 深度神经网络导数的近似最优 VC 维度和伪维度上界
本研究解决了深度神经网络导函数的最优 Vapnik-Chervonenkis 维度(VC-dimension)和伪维度估计的问题,并将其应用于机器学习方法中涉及函数导数的损失函数的学习误差估计,从而填补了包括物理为基础的机器学习模型和应用程 - KDD基于 VC 维的关系学习泛化界
本文研究了关系模型的充分统计量的误差边界,主要结果是证明了适用于关系数据的 Vapnik-Chervonenkis 维度的变体边界。
- MM关于零知识假设下概率近似正确机器学习模型的最低下界
提出了一种关于最小二倍经验风险下界的理论证明,并明确了最小二倍经验风险学习算法的特点,其中包括极限对称性和最小随机化 “投票” 程序。
- 深度神经网络在纹理分类中的理论分析
本文研究了使用深度神经网络对纹理特征重要的图像数据集进行分类的方法,并通过定义手工特征提取的 VC 维来证明手工特征提取是降低异常误差率的有效工具,同时得出了卷积神经网络、Dropout 网络和 Dropconnect 网络的 VC 维上限