本论文基于Wasserstein空间的球体不确定性集合,提出了用于统计学习的极小极大框架,并证明了涉及原始极大似然问题的覆盖数特性的一般化界限。 作为一个具体的例子,我们为基于传输的域自适应问题提供了推广保证,其中源域和目标域分布之间的Wasserstein距离可以可靠地从未标记样本中估算。
May, 2017
本文提出了使用分布式鲁邦优化的思想来作为正则化技术以及对现有技术提供新的概率解释。通过选择半径,可以保证最坏情况下的预期损失提供了对测试数据的上限置信度,从而提供新的泛化界限。
Oct, 2017
本文发展了关于Wasserstein DRO(分布鲁棒优化问题中的一种方法)变化规则的一般理论,它是一种新形式的正则化,可以处理可能不是凸的和不光滑的损失以及非欧几里得空间上的损失。通过应用我们理论中的变化规则,我们为对抗性鲁棒学习提供了新的泛化保证。
Dec, 2017
文章提出了一种新的,计算高效的风险极小化估计器类别,展示了它们在一般统计模型中的鲁棒性,特别地,在经典的Huber epsilon污染模型和重尾情况下。提出的核心是一种新型的鲁棒梯度下降算法,还给出了它在一般凸风险极小化问题中提供准确估计的条件,并以线性回归、逻辑回归和指数族中的规范参数估计为例。最后,在合成和实际数据集上研究了这种方法的实证表现,发现其比多种基线方法更具说服力。
Feb, 2018
本研究提出了一种分布鲁棒的随机优化框架,利用凸形式化来解决学习模型受到数据生成分布扰动的问题,并通过多项收敛性保准来证明模型的可靠性,同时也得出了极限定理及有关泛化到未知人群、精细化认知等真实任务的证据。
Oct, 2018
此论文介绍了基于Wasserstein分布鲁棒优化的数据驱动决策方法,能够解决样本有限、参数不确定的情况下,采用仅仅通过数据学习决策的问题,绕过测试样本不能涵盖所有情况的问题,具有良好的效果且容易计算。此方法对于分类、回归等基本学习任务有很好启示作用。
Aug, 2019
本文提出了一种基于新近估算定理的WDRO(Wasserstein分布鲁棒优化)最小化器,通过实现该最小化器及提供相应的风险一致性结果,发现该方法成功应用于本地扰动数据的WDRO推断,同时对噪声数据如图像分类数据集表现出鲁棒性优异的效果。
Jun, 2020
通过数据相关的广义界限,证明了健壮性意味着泛化。我们提出了几个例子,包括Lasso和深度学习,证明了我们的界限是明显优于以前的界限的。技术创新包括针对多项式随机变量的改进的浓缩界限。
Jun, 2022
给定一个研究论文,提取5个关键词,准确地代表其主要主题和研究领域。然后,用一句简明扼要的中文句子概括该论文。
Nov, 2023
通过使用辅助数据集,例如合成数据集、外部数据集或域外数据集,我们研究了对抗攻击下逻辑回归的分布鲁棒化问题,并展示该方法相对于基准方法在真实数据集上的持续优势。
Jul, 2024