本文提出了在实现线性设置中优化三种不同决策者目标的决策规则的有效算法,包括准确预测智能体事后结果 (预测风险最小化),激励智能体改进这些结果 (智能体结果最大化),以及估计真实基础模型的系数 (参数估计)。其中的算法绕过了 Miller 等人的一个困难结果,允许决策者测试一系列决策规则并观察智能体的响应,从而通过决策规则实现因果干预。
Feb, 2020
该研究探讨了决策边界设计中策略行为和社会负担的关系,发现任何增加机构效用的努力都会导致相应的社会负担增加,因此需要在保证策略稳健性的前提下权衡社会福利和公平的考虑。
Aug, 2018
本文提出了一种基于分类器的学习方法,通过设计合理的学习策略,鼓励决策主体改变其特定属性,从而在实际场景中提高机器学习算法的预测精度并避免信息操作。
Oct, 2020
机器学习中的好斗现象及其解决方案的研究,通过将分类问题建模为一种游戏的方式,提出了一种近乎最优的、能够抵抗 “好斗” 现象的分类器设计算法,尤其对于一类自然代价函数而言,该算法在计算上也是高效的。
Jun, 2015
本文研究算法在分类和评估个体时受到个体激励影响的策略行为问题,并发现当任何现实的机制可以应对时,简单的线性机制就可以解决问题。
Jul, 2018
本文介绍了一种实用的针对策略性分类的学习框架,利用微分求解了用户的策略反应,从而直接最小化了 “策略性” 经验风险,并且证明了该方法在各种学习场景下的有效性。
Mar, 2021
在战略分类中,学习者以一定的代价修改特征,以期从学习者的分类器中获得正面分类。我们考虑学习者在战略分类中部分信息披露的问题,研究代理在非完全了解分类器参数的情况下的最佳响应。我们展示了部分信息披露在增加代理操纵能力的同时,反直觉地有利于学习者的准确性,并提出了一些关于学习者优化问题的正面和负面结果,探讨了学习者应该披露多少信息来最大化预期准确性的算法问题。
Feb, 2024
本文提出了并研究了一种广义的策略性分类模型,其中针对用户利益和系统需要达成一致的问题,提出了一种新的 max-margin 框架,提高了其实用性和有效性,并通过实验证明了方法的实用价值。
Feb, 2022
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
我们研究了多个决策者下因果战略学习中的代理选择问题,并解决了相应的两个关键挑战。首先,我们考虑了代理评估和选择过程的影响,发现最佳选择规则在选择最佳代理和提供激励以促进代理改善之间存在权衡。此外,最佳选择规则依赖于代理结果的错误预测。然后,我们研究了决策者的最佳选择规则不会导致代理结果恶化或不公正减少代理选择机会的条件。其次,当存在多个决策者时,选择规则之间的干扰引入了估计潜在因果参数的另一个偏倚来源。为解决这个问题,我们提供了一个合作协议,所有决策者必须共同采用以恢复真实的因果参数。最后,我们通过模拟研究补充了理论结果。我们的结果不仅凸显了因果建模作为减轻操纵效应的策略的重要性,正如以前的工作所建议的,还凸显了需要一位慈善的监管者来使其成为可能。
Aug, 2023