在战略分类中,学习者以一定的代价修改特征,以期从学习者的分类器中获得正面分类。我们考虑学习者在战略分类中部分信息披露的问题,研究代理在非完全了解分类器参数的情况下的最佳响应。我们展示了部分信息披露在增加代理操纵能力的同时,反直觉地有利于学习者的准确性,并提出了一些关于学习者优化问题的正面和负面结果,探讨了学习者应该披露多少信息来最大化预期准确性的算法问题。
Feb, 2024
机器学习中的好斗现象及其解决方案的研究,通过将分类问题建模为一种游戏的方式,提出了一种近乎最优的、能够抵抗 “好斗” 现象的分类器设计算法,尤其对于一类自然代价函数而言,该算法在计算上也是高效的。
Jun, 2015
在一个在线的战略分类问题中,每个到达的代理可以操纵其真实特征向量以获得正面的预测标签,同时付出依赖于操纵量的成本。学习者在仅能访问操纵后的特征的情况下,试图预测代理的真实标签。之后学习者公布其预测,代理的真实标签被揭示。我们提供两种新算法,旨在在战略代理行为的情况下恢复最大边界分类器。我们证明了各种代理成本结构的收敛性、有限错误和有限操纵保证。我们还提供了针对不同成本的具有错误保证的战略感知器的广义版本。我们对真实数据和人工合成数据进行的数值研究表明,新算法在边界、操纵数量和错误数量方面优于以前的算法。
Mar, 2024
本文提出了在实现线性设置中优化三种不同决策者目标的决策规则的有效算法,包括准确预测智能体事后结果 (预测风险最小化),激励智能体改进这些结果 (智能体结果最大化),以及估计真实基础模型的系数 (参数估计)。其中的算法绕过了 Miller 等人的一个困难结果,允许决策者测试一系列决策规则并观察智能体的响应,从而通过决策规则实现因果干预。
Feb, 2020
对比标准分类任务,战略分类涉及代理人在修改其特征以获得有利预测的过程中的策略性行为,重点关注战略分类与标准学习之间的可学习差距,并通过提供几乎紧密的样本复杂性和后悔界限来解释这一问题,同时引入两种自然的不确定性情况,以实现一定程度的放松的完全信息设置。
在策略分类中,我们研究了在一次性场景下未知响应的策略分类问题,通过最小化最坏情况下的风险来确定最优的分类器,并提出了高效的算法以及对于成本函数的双范数正则化的重要性。
Nov, 2023
本文研究了利用学习理论来生成具有鲁棒性的决策规则,以及针对机器学习领域中存在的潜在的策略操纵问题,提出了一种新的损失函数,称为策略操纵损失,分析了在已知操纵网络结构和未知操纵网络结构下的学习样本复杂度,并且基于迁移学习技术,定义了一种相似度度量,用于度量操纵网络结构的相似度,得到了具有鲁棒性的学习结果。
Mar, 2022
本文研究在存在战略个体行为的情况下的算法决策,其中使用机器学习模型作出对人类个体的决策,而后者可以战略性地调整自己的行为以改进其未来的数据。研究重点在于非线性设置,其中个体只能通过决策策略的本地信息来响应决策策略。同时考虑最大化决策者福利(模型预测准确性)、社会福利(战略行为导致的个体改进)和个体福利(机器学习对个体的低估程度)的目标。理论结果表明,仅仅最大化某些参与方的福利必然会减少其他方的福利,因此我们认为在非线性设置中平衡各方福利是必要的,并提出了一种适用于一般战略学习的不可缩减优化算法。通过对合成数据和真实数据的实验证实了所提算法。
May, 2024
本文提出了并研究了一种广义的策略性分类模型,其中针对用户利益和系统需要达成一致的问题,提出了一种新的 max-margin 框架,提高了其实用性和有效性,并通过实验证明了方法的实用价值。
Feb, 2022
本文研究算法在分类和评估个体时受到个体激励影响的策略行为问题,并发现当任何现实的机制可以应对时,简单的线性机制就可以解决问题。
Jul, 2018