战略分类
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
在战略分类中,学习者以一定的代价修改特征,以期从学习者的分类器中获得正面分类。我们考虑学习者在战略分类中部分信息披露的问题,研究代理在非完全了解分类器参数的情况下的最佳响应。我们展示了部分信息披露在增加代理操纵能力的同时,反直觉地有利于学习者的准确性,并提出了一些关于学习者优化问题的正面和负面结果,探讨了学习者应该披露多少信息来最大化预期准确性的算法问题。
Feb, 2024
对比标准分类任务,战略分类涉及代理人在修改其特征以获得有利预测的过程中的策略性行为,重点关注战略分类与标准学习之间的可学习差距,并通过提供几乎紧密的样本复杂性和后悔界限来解释这一问题,同时引入两种自然的不确定性情况,以实现一定程度的放松的完全信息设置。
Feb, 2024
本文研究了利用学习理论来生成具有鲁棒性的决策规则,以及针对机器学习领域中存在的潜在的策略操纵问题,提出了一种新的损失函数,称为策略操纵损失,分析了在已知操纵网络结构和未知操纵网络结构下的学习样本复杂度,并且基于迁移学习技术,定义了一种相似度度量,用于度量操纵网络结构的相似度,得到了具有鲁棒性的学习结果。
Mar, 2022
本文提出了在实现线性设置中优化三种不同决策者目标的决策规则的有效算法,包括准确预测智能体事后结果 (预测风险最小化),激励智能体改进这些结果 (智能体结果最大化),以及估计真实基础模型的系数 (参数估计)。其中的算法绕过了 Miller 等人的一个困难结果,允许决策者测试一系列决策规则并观察智能体的响应,从而通过决策规则实现因果干预。
Feb, 2020
通过引入因果框架来研究策略适应问题,揭示了与游戏与改进相关的一些难点,提出了分类器设计与成本函数设计必须解决非平凡因果推断问题,而过往在策略分类方案的研究实际上是具有隐性因果模型的。
Oct, 2019
利用机器学习系统进行个体决策的智能行为研究,提出了基于 Stackelberg 博弈的模型,探讨了决策者对个体行为的预期能力对其目标函数和个体最佳反应的影响,并通过调整偏好,同时抑制操纵、鼓励改进和促进公平。
May, 2024
本文探讨了机器学习如何工作以及如何制定公正和负责任的算法,重点考虑了在刑事司法系统中执行决策的案例,并对 HART 作为现实世界分类器的技术特征进行了说明和四个规范基准进行了评估。
Nov, 2018