战略表现
机器学习中的好斗现象及其解决方案的研究,通过将分类问题建模为一种游戏的方式,提出了一种近乎最优的、能够抵抗 “好斗” 现象的分类器设计算法,尤其对于一类自然代价函数而言,该算法在计算上也是高效的。
Jun, 2015
现实世界的系统中,用户在一组服务中进行选择,通过在线学习算法,这些服务可以自我优化并最大化一些回报,而用户可以策略性地选择服务以追求他们自己的回报函数,我们分析了一个策略性用户在多个可用的服务中进行选择的情境,并研究了损失函数在这种情境下的收敛行为。
Jan, 2024
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
本文研究算法决策,分析了在社会不平等的情况下,一方面面临更高的成本的候选群体可能会被错误地排除,而另一方面面临更低成本的候选群体可能会被错误地接受。本文还探讨了给予补贴的干预效果,发现某些情况下给予补贴只会提高算法决策者的效用,但实际上会损害所有候选群体的利益,包括补贴接收者。
Aug, 2018
本研究提出了一种新的稳健性估计器,以避免在透明决策规则下个体的行为可能造成的操纵行为对决策结果的影响并在肯尼亚的一项大型实验中表明,在策略鲁棒方法估计的决策规则的指导下,其表现优于基于标准监督学习方法的规则。
Apr, 2020
本文研究了利用学习理论来生成具有鲁棒性的决策规则,以及针对机器学习领域中存在的潜在的策略操纵问题,提出了一种新的损失函数,称为策略操纵损失,分析了在已知操纵网络结构和未知操纵网络结构下的学习样本复杂度,并且基于迁移学习技术,定义了一种相似度度量,用于度量操纵网络结构的相似度,得到了具有鲁棒性的学习结果。
Mar, 2022
利用机器学习系统进行个体决策的智能行为研究,提出了基于 Stackelberg 博弈的模型,探讨了决策者对个体行为的预期能力对其目标函数和个体最佳反应的影响,并通过调整偏好,同时抑制操纵、鼓励改进和促进公平。
May, 2024
在战略分类中,学习者以一定的代价修改特征,以期从学习者的分类器中获得正面分类。我们考虑学习者在战略分类中部分信息披露的问题,研究代理在非完全了解分类器参数的情况下的最佳响应。我们展示了部分信息披露在增加代理操纵能力的同时,反直觉地有利于学习者的准确性,并提出了一些关于学习者优化问题的正面和负面结果,探讨了学习者应该披露多少信息来最大化预期准确性的算法问题。
Feb, 2024