未知成本下的一次性战略分类
在战略分类中,学习者以一定的代价修改特征,以期从学习者的分类器中获得正面分类。我们考虑学习者在战略分类中部分信息披露的问题,研究代理在非完全了解分类器参数的情况下的最佳响应。我们展示了部分信息披露在增加代理操纵能力的同时,反直觉地有利于学习者的准确性,并提出了一些关于学习者优化问题的正面和负面结果,探讨了学习者应该披露多少信息来最大化预期准确性的算法问题。
Feb, 2024
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
机器学习中的好斗现象及其解决方案的研究,通过将分类问题建模为一种游戏的方式,提出了一种近乎最优的、能够抵抗 “好斗” 现象的分类器设计算法,尤其对于一类自然代价函数而言,该算法在计算上也是高效的。
Jun, 2015
对比标准分类任务,战略分类涉及代理人在修改其特征以获得有利预测的过程中的策略性行为,重点关注战略分类与标准学习之间的可学习差距,并通过提供几乎紧密的样本复杂性和后悔界限来解释这一问题,同时引入两种自然的不确定性情况,以实现一定程度的放松的完全信息设置。
Feb, 2024
本文研究了利用学习理论来生成具有鲁棒性的决策规则,以及针对机器学习领域中存在的潜在的策略操纵问题,提出了一种新的损失函数,称为策略操纵损失,分析了在已知操纵网络结构和未知操纵网络结构下的学习样本复杂度,并且基于迁移学习技术,定义了一种相似度度量,用于度量操纵网络结构的相似度,得到了具有鲁棒性的学习结果。
Mar, 2022
本文提出了并研究了一种广义的策略性分类模型,其中针对用户利益和系统需要达成一致的问题,提出了一种新的 max-margin 框架,提高了其实用性和有效性,并通过实验证明了方法的实用价值。
Feb, 2022
我们研究了在战略分类设置下设计最优分类器的问题,在这种设置下,分类是游戏的一部分,玩家可以修改其特征以获得有利的分类结果 (同时承担一些成本)。我们的研究主要贡献是:1. 如果目标是最大化分类过程的效率 (定义为准确性减去合格玩家操纵其特征以获得更好结果的沉没成本),则需要使用随机分类器 (即,其中给定特征向量被分类器接受的概率严格在 0 和 1 之间)。2. 在许多自然情况下,施加的最优解 (就效率而言) 具有这样的结构,即玩家永远不会改变其特征向量 (随机分类器的结构使得被分类为 1 的概率的增益不足以证明改变自己的特征的费用是值得的)。3. 观察到随机分类不是从分类器视角看到的稳定的最优响应,并且分类器没有从随机分类器中获益而不会在系统中创建不稳定性。4. 在一些情况下,更嘈杂的信号会导致更好的均衡结果 -- 当涉及到具有不同特征调整成本的多个亚种群时,可以提高准确性和公正性。
May, 2020
在一个在线的战略分类问题中,每个到达的代理可以操纵其真实特征向量以获得正面的预测标签,同时付出依赖于操纵量的成本。学习者在仅能访问操纵后的特征的情况下,试图预测代理的真实标签。之后学习者公布其预测,代理的真实标签被揭示。我们提供两种新算法,旨在在战略代理行为的情况下恢复最大边界分类器。我们证明了各种代理成本结构的收敛性、有限错误和有限操纵保证。我们还提供了针对不同成本的具有错误保证的战略感知器的广义版本。我们对真实数据和人工合成数据进行的数值研究表明,新算法在边界、操纵数量和错误数量方面优于以前的算法。
Mar, 2024
在存在噪音标签的情况下,我们研究了在线分类问题。通过一般的核来建模噪音机制,为任何特征 - 标签对指定了一个(已知)噪音标签分布集合。每个时间步骤,对手根据实际的特征 - 标签对从核指定的分布集合中选择一个未知分布,并根据所选分布生成噪音标签。学习者根据迄今为止观察到的实际特征和噪音标签进行预测,如果预测与真实情况不同,则遭受损失 1(否则为 0)。预测质量通过计算有限时间视野 T 上的极小化风险来量化。我们证明了对于广泛的自然噪音核、对手选择的特征和有限类别的标记函数,极小化风险可以上界独立于时间视野并以标记函数类别尺寸的对数形式增长。然后,我们通过随机顺序覆盖的概念将这些结果推广到无限类别和随机生成的特征。我们的结果通过对在线条件分布估计的新颖归约提供了直观理解,并且扩展并包含了 Ben-David 等人(2009)的研究结果,具有显著的广泛性。
Sep, 2023