关键词generalization guarantees
搜索结果 - 12
- 基于损失梯度高斯宽度的泛化和优化保证
通过 Loss Gradient Gaussian Width (LGGW) 的复杂度度量,我们提出一种直接基于 LGGW 的泛化保证方法,在梯度支配条件下实现,其在深度模型中进行实证研究并证明其有效性。同时,我们展示了有限和优化的样本重用 - 基于数据驱动的经典优化器和学习优化器的性能保证
介绍了一种数据驱动的方法,利用统计学习理论的泛化保证来分析连续优化算法的性能。研究经典优化器和学习优化器来解决参数优化问题的族群。建立了经典优化器的泛化保证,利用样本收敛界限,以及学习优化器的泛化保证,利用 Probably Approxi - 库存策略的 VC 理论
计算能力和人工智能的进步增加了对强化学习在库存管理中的兴趣,本论文对这些方法提供了理论基础,并探讨了将政策结构限制为几十年来库存理论所熟知的结构的好处。我们利用 Vapnik-Chervonenkis 理论证明了对学习几种众所周知的库存策略 - ICML神经希尔伯特梯级:函数空间内的多层神经网络
本文探讨了深度神经网络的函数空间和复杂度测量方面的问题,将一个多层神经网络看作是一种特定层次的再生核希尔伯特空间,并研究了它的理论性质和推论。
- 多模态对比学习的泛化性
本文通过建立多模态对称矩阵分解和对称矩阵分解的内在联系,证明了多模态对比学习在图像下游任务中的泛化保证,并通过统一模型表明多模态对比学习隐含地通过文本对生成了伪正对,从而具有更多的语义一致和多样性正对,可显著提高基于自我监督的对比学习在图像 - (正则化的)Wasserstein 鲁棒分布模型精确泛化保证
本研究表明,Wasserstein 分布鲁棒估计器的推广保证其可适用于一般模型类,并且不会受到维度诅咒,甚至可以涵盖测试中的分布偏移,这些结果可以延伸到新引入的 Wasserstein 分布性机器学习问题的正则化版本。
- 利用观测和干预数据的因果强化学习
本文探讨了利用 Causal Inference 理论和 Latent-based causal transition model 在 offline data 的基础上,使用 observational data 可以有效地提高 mode - 利用差异学习 GAN 和集成模型
本文提出了一种使用误差度量方法来训练生成式对抗网络,通过该方法可以获得更好的泛化性能,并使用该方法来训练 DGAN 和 EDGAN 等两个算法,实现了在玩具示例和多个基准数据集上的有竞争力的性能表现。
- KDD图卷积神经网络的稳定性和泛化性能
本文研究了图卷积神经网络在半监督学习环境下的算法稳定性及其一阶推论;通过分析单层 GCNN 模型的稳定性,导出其一般化保证,提出稳定性关于其卷积核最大绝对特征值的依赖规律,并说明产生保证所需的卷积核最大特征值与图大小无关,为设计保证的算法稳 - 线性可分数据上的 ReLU 网络学习:算法,最优性和泛化
本文提出了一种新的随机梯度下降算法,利用随机噪声扰动,无需任何假设于数据分布、网络大小和训练集大小,就能够证明地达到单隐藏层 ReLU 网络的全局最优性,同时提出了一些一般的泛化保证,此外,数值测试结果也验证了算法和理论的实用性。
- 最优传输理论分析的领域自适应
本文在探讨域自适应的过程中,提出了一种使用 Wasserstein 度量作为两个数据集分布差异度量的方法,并且通过对多个不同的学习场景的实验证明了这种方法的通用性,同时进一步探讨了这种方法可能比其他现有框架更紧密的原因。
- 半度量空间分类的近最优算法
本文研究了半度量空间中的分类问题,定义并探索了密度维数在统计学和算法可行性中的中心作用,并提出了接近最优的样本压缩算法,得到了具有独立意义的广义样本压缩方案的泛化保证。