从几何视角看概率鲁棒学习的边界问题
提出了一种稳健性的敌对训练 (robust adversarial reinforcement learning, RARL) 方法,该方法将敌对训练与零和极小优化相结合,通过训练一个智能体,使其能够在真实系统上的杂乱因素和不确定性下操作,并在多种环境中进行了验证。
Mar, 2017
本研究介绍了一种新的分布鲁棒学习方法,该方法通过加入无标签数据以限制敌手从指定分布中选择数据,可以有效地进行分类,并提出了一个分布鲁棒的版本,可应用于主动学习。在 14 个真实数据集上的结果表明,该算法往往在传统方法无法提供良好结果的情况下表现出色。
Dec, 2019
研究发现,对于一些平衡的数据集,在执行 Adversarial training algorithms 时将出现不同类别的数据准确度和鲁棒性的严重差异,因此提出了一种名为 Fair-Robust-Learning 的框架以解决这种不公平的问题,并在实验中验证了其有效性。
Oct, 2020
本文通过半无限优化和非凸对偶理论的研究,证明对抗性训练等价于在扰动分布上的统计问题,并对此进行完整的表征。我们提出一种基于 Langevin Monte Carlo 的混合方法,可以缓解鲁棒性与标准性能之间的平衡问题,并取得了 MNIST 和 CIFAR-10 等领域最先进的结果。
Oct, 2021
这项研究的目的是在多类学习中表征正则化的作用,并使用一种最优学习算法来控制模型容量,该算法与结构风险最小化、最大熵原理和贝叶斯推理相结合。同时引入一种新的学习者,通过在无监督学习阶段学习正则化器,实现结构风险最小化的放松,以及推导学习问题的归纳错误率。最后,引入了对偶误差的泛化和不可知情况的哈明图最优学习算法,通过最大熵程序实现最优学习。
Sep, 2023
利用分布鲁棒优化的方式解决神经网络在对抗攻击下的鲁棒性问题,通过在 Wasserstein ball 内惩罚扰动数据分布的方式,通过我们提出的训练过程,能够实现对训练数据的最坏情况扰动而获得中等水平的健壮性,同时具有较小的计算和统计成本,并且我们的统计保证使我们能够有效地验证整体损失的健壮性,对于感知扰动,我们的方法与启发式方法相匹配或更好。
Oct, 2017
研究网络数据在机器学习中的应用,通过一种通用的风险边界得到一个优化问题,使用带权重的 ERM 可以求解这个优化问题,再通过一种新的全多项式时间近似方案来在非凸情况下解决这个问题。
Nov, 2017
提出了首个具有收敛保证的随机分布鲁棒公平性框架,不需要对因果图的了解,在分布转移的环境中将公平推断制定为 $L_p$ 范数不确定性集合下的分布鲁棒优化问题。
Sep, 2023