现实世界的系统中,用户在一组服务中进行选择,通过在线学习算法,这些服务可以自我优化并最大化一些回报,而用户可以策略性地选择服务以追求他们自己的回报函数,我们分析了一个策略性用户在多个可用的服务中进行选择的情境,并研究了损失函数在这种情境下的收敛行为。
Jan, 2024
本文提出了并研究了一种广义的策略性分类模型,其中针对用户利益和系统需要达成一致的问题,提出了一种新的 max-margin 框架,提高了其实用性和有效性,并通过实验证明了方法的实用价值。
Feb, 2022
本文介绍了一种实用的针对策略性分类的学习框架,利用微分求解了用户的策略反应,从而直接最小化了 “策略性” 经验风险,并且证明了该方法在各种学习场景下的有效性。
Mar, 2021
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
通过引入因果框架来研究策略适应问题,揭示了与游戏与改进相关的一些难点,提出了分类器设计与成本函数设计必须解决非平凡因果推断问题,而过往在策略分类方案的研究实际上是具有隐性因果模型的。
Oct, 2019
在战略分类中,学习者以一定的代价修改特征,以期从学习者的分类器中获得正面分类。我们考虑学习者在战略分类中部分信息披露的问题,研究代理在非完全了解分类器参数的情况下的最佳响应。我们展示了部分信息披露在增加代理操纵能力的同时,反直觉地有利于学习者的准确性,并提出了一些关于学习者优化问题的正面和负面结果,探讨了学习者应该披露多少信息来最大化预期准确性的算法问题。
Feb, 2024
对比标准分类任务,战略分类涉及代理人在修改其特征以获得有利预测的过程中的策略性行为,重点关注战略分类与标准学习之间的可学习差距,并通过提供几乎紧密的样本复杂性和后悔界限来解释这一问题,同时引入两种自然的不确定性情况,以实现一定程度的放松的完全信息设置。
该研究旨在解决用户如何根据机器的战略表征做出良好选择的问题,提出一种对抗机制学习算法,最小化误差并加强对抗能力。
Jun, 2022
本文提出了一种基于分类器的学习方法,通过设计合理的学习策略,鼓励决策主体改变其特定属性,从而在实际场景中提高机器学习算法的预测精度并避免信息操作。
Oct, 2020
用户行为对推荐算法产生影响,用户可以采取策略来塑造其未来的推荐结果。该研究实验证明用户策略化行为普遍存在,推荐平台需要考虑算法对用户行为的影响。
May, 2024