一种用于预测任务类别的表示学习游戏
本文提出了一种通过对抗学习策略学习能够抵抗特定数据因素影响的新型表示学习方法,并通过多个基准测试表明所提出的方法可以获取到不变表示,从而提高模型的泛化能力。
May, 2017
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
通过对非凸和非可微最优化问题的研究和核表示方法,我们提供了一种通过谱学习实现数据的不变性、得出全局最优解的解决方案,并在 UCI、Extended Yale B 和 CIFAR-100 数据集上进行了实验验证,得出我们的解决方案能够实现与现有神经网络解决方案迭代最小化相当的效果。
Oct, 2019
通过 von Neumann 最小极大定理,我们研究了在线凸优化游戏的最优策略的遗憾。我们证明了,在这种对抗性环境中,最优策略的遗憾与随机进程设置中经验最小化算法的行为密切相关:它等于最小期望损失的总和与最小经验损失之间的差的最大值。我们展示了最优策略的遗憾具有自然的几何解释,因为它可以被视为一个上凸函数的 Jensen 不等式中的差距。利用此表达式,我们对各种在线学习问题的最优策略给出了上下界限制。我们的方法提供了无需构建学习算法的上界,而提供了对抗者的明确最优策略的下界。
Mar, 2009
本文旨在探讨用表示学习降低预测结果中的不公平因素。针对第三方使用这些学习到的表示却又不明确目标的情境,我们提出了对抗性表示学习方法来确保使用方的公平性。我们将群体公平(人口平等、平等赔率和平等机会)与不同的对抗目标联系起来,通过最坏情况的理论保证和实验验证,我们证明了对该目标的选择对于公平预测是至关重要的。此外,我们还展示了公平迁移学习的首个深入实验演示,并经验证明了我们学习到的表示在保持实用性的同时对新任务具有公平预测的能力,这是公平表示学习的重要目标。
Feb, 2018
本文提出了一种信息理论动机的目标函数,用于学习在公平约束条件下最具表达力的数据表示,旨在通过控制不公平性极限的方式帮助用户控制数据表示的公平性,证明了现有方法无法完全实现此目标,通过引入一种优化模型参数和表达力 - 公平性权衡的方法来平衡多种公平概念的权衡,并在更低的计算成本下实现更高的表达能力。
Dec, 2018
本文提出一种基于信息论的学习鲁棒性深度表示的新颖目标函数,通过将数据投影到特征矢量空间,最大化相对于监督信号的所有特征子集的互信息,得到鲁棒表示,其对噪声或不可用特征的信息保留能力较强,我们利用一种替代目标函数最小化的方式实现此目标函数并进行实验验证。
May, 2019
通过基于值函数空间的几何特性,提出了一种新的表征学习的视角,证明了值函数作为辅助任务的实用性并将敌对价值函数作为其自然候选。在四间房间领域的实验中,展示了敌对价值函数作为辅助任务的有用性和特点。
Jan, 2019