因果策略线性回归
通过引入因果框架来研究策略适应问题,揭示了与游戏与改进相关的一些难点,提出了分类器设计与成本函数设计必须解决非平凡因果推断问题,而过往在策略分类方案的研究实际上是具有隐性因果模型的。
Oct, 2019
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
我们研究了多个决策者下因果战略学习中的代理选择问题,并解决了相应的两个关键挑战。首先,我们考虑了代理评估和选择过程的影响,发现最佳选择规则在选择最佳代理和提供激励以促进代理改善之间存在权衡。此外,最佳选择规则依赖于代理结果的错误预测。然后,我们研究了决策者的最佳选择规则不会导致代理结果恶化或不公正减少代理选择机会的条件。其次,当存在多个决策者时,选择规则之间的干扰引入了估计潜在因果参数的另一个偏倚来源。为解决这个问题,我们提供了一个合作协议,所有决策者必须共同采用以恢复真实的因果参数。最后,我们通过模拟研究补充了理论结果。我们的结果不仅凸显了因果建模作为减轻操纵效应的策略的重要性,正如以前的工作所建议的,还凸显了需要一位慈善的监管者来使其成为可能。
Aug, 2023
研究在在线回归模型中,个体会通过改变自己的特征来改进模型所预测的得分,并探讨在这一过程中,如何精准地找出对结果有意义的特征,并通过激励机制鼓励学习模型学习这些特征。
Feb, 2020
机器学习中的好斗现象及其解决方案的研究,通过将分类问题建模为一种游戏的方式,提出了一种近乎最优的、能够抵抗 “好斗” 现象的分类器设计算法,尤其对于一类自然代价函数而言,该算法在计算上也是高效的。
Jun, 2015
研究发现,当机器学习算法自动或参考作用于关于人的重大决策时,个体决策受到激励可通过策略性地修改自己的可观察属性以获得更有利的预测,导致预测所依赖的训练数据分布与实际使用的数据分布不同。但是,该文提出了一个新方法,通过观察部署模型的顺序可以将策略性响应与工具变量回归联系起来,从而有效地恢复我们想要预测的可观察特征和结果之间的因果关系,从而提高决策的公平性、代理结果和预测风险。
Jul, 2021
本文研究在存在战略个体行为的情况下的算法决策,其中使用机器学习模型作出对人类个体的决策,而后者可以战略性地调整自己的行为以改进其未来的数据。研究重点在于非线性设置,其中个体只能通过决策策略的本地信息来响应决策策略。同时考虑最大化决策者福利(模型预测准确性)、社会福利(战略行为导致的个体改进)和个体福利(机器学习对个体的低估程度)的目标。理论结果表明,仅仅最大化某些参与方的福利必然会减少其他方的福利,因此我们认为在非线性设置中平衡各方福利是必要的,并提出了一种适用于一般战略学习的不可缩减优化算法。通过对合成数据和真实数据的实验证实了所提算法。
May, 2024
对在线评估工具进行策略应对的研究表明,在考虑个体决策者和决策机构间多次周期策略互动的情况下,多轮互动使得决策机构更加有效地激励个体决策者朝期望的方向累积努力,并考虑延长时间框架和考虑决策累积的很多关键因素需要加以研究和解决。
Jun, 2021
在战略分类中,学习者以一定的代价修改特征,以期从学习者的分类器中获得正面分类。我们考虑学习者在战略分类中部分信息披露的问题,研究代理在非完全了解分类器参数的情况下的最佳响应。我们展示了部分信息披露在增加代理操纵能力的同时,反直觉地有利于学习者的准确性,并提出了一些关于学习者优化问题的正面和负面结果,探讨了学习者应该披露多少信息来最大化预期准确性的算法问题。
Feb, 2024