本研究探讨分布式鲁棒优化,提出了一种适用于一般光滑非凸损失的 DRO 算法,并将其与条件风险价值(CVaR)设置相结合,得到类似的收敛保证,经实验证明所提出算法的性能表现突出。
Oct, 2021
本论文探讨的是使用组注释的数据进行分类模型训练的问题,提出了一个新的算法,旨在通过鼓励学习跨各种组共享的特征来提高少数族裔的性能。通过在标准基准测试中进行实证研究,证明了本文提出的算法在不同组别和少数族裔上的表现要好于 ERM 和 Group-DRO 等强基线。同时,论文也从理论上证明了所提出算法是一种下降方法,并且可以找到平稳点。
本文概述了分布鲁棒优化(DRO)的主要概念和贡献,以及它与鲁棒优化、风险规避、机会约束优化和函数正则化的关系。
Aug, 2019
该论文主要研究了分布鲁棒优化(Distributionally Robust Optimization,DRO)中的约束问题,针对非凸损失函数提出了一种随机算法并进行了性能分析,证明了该算法能够找到一个满足 ε- 稳定点,而且计算复杂度为 O (ε^(-3k_*-5)),此外,数值结果表明该方法优于现有方法。
Apr, 2024
本研究提出了一种分布鲁棒的随机优化框架,利用凸形式化来解决学习模型受到数据生成分布扰动的问题,并通过多项收敛性保准来证明模型的可靠性,同时也得出了极限定理及有关泛化到未知人群、精细化认知等真实任务的证据。
Oct, 2018
本文介绍了使用分布式鲁棒优化 (DRO) 解决交叉事实风险最小化 (CRM) 问题的想法,并证明了 DRO 是对策反决策的一种有原则的工具。我们提出了使用 Kullback-Leibler 马氏距离作为 CRM 中不确定性的代替方法,并基于这一方法提出了一种新的鲁棒对策反目标。通过实验证明,在实践中使用其他不确定性度量具有重要意义。
Jun, 2019
提供了一种自然的数据驱动方式,用于学习分布绝对稳健优化问题中定义的分布区间,证明该框架包括自适应正则化作为一个特殊案例,实证表明所提出的方法能够改进广泛应用的机器学习估计器。
May, 2017
本文提出了一种基于神经生成模型的分布鲁棒优化 (DRO) 方法,通过对不确定集合中的分布进行建模,使得模型在不确定的分布中表现优异,并提出一种 KL 约束内部最大化目标的松弛优化方式,通过大规模生成模型的梯度优化来解决相应的实现和优化挑战,并且开发模型选择启发式方法来指导超参数搜索。实验结果表明提出的方法比当前基线模型更具鲁棒性。
Mar, 2021
本文提出通过有限和复合优化来提供可扩展的机器学习算法,用于训练鲁棒性强的模型,并展示本算法在超大数据集上学习鲁棒模型的有效性。
Mar, 2022
给定一个研究论文,提取 5 个关键词,准确地代表其主要主题和研究领域。然后,用一句简明扼要的中文句子概括该论文。
Nov, 2023