用户的自主选择行为对学习过程和学习结果有重要影响,在预测中用户会采取策略性的行动,我们研究了一种用户根据学习到的分类器决定是否参与的新型情景,为了提高学习的策略性,我们提出了一个可有效优化的自主选择学习框架,并通过实验验证了其实用性。
Feb, 2024
本文提出了并研究了一种广义的策略性分类模型,其中针对用户利益和系统需要达成一致的问题,提出了一种新的 max-margin 框架,提高了其实用性和有效性,并通过实验证明了方法的实用价值。
Feb, 2022
该研究旨在解决用户如何根据机器的战略表征做出良好选择的问题,提出一种对抗机制学习算法,最小化误差并加强对抗能力。
Jun, 2022
本文介绍了一种实用的针对策略性分类的学习框架,利用微分求解了用户的策略反应,从而直接最小化了 “策略性” 经验风险,并且证明了该方法在各种学习场景下的有效性。
Mar, 2021
人面向算法的战略行为对算法的可靠性和决策能力有负面影响,因此需要设计可信的算法,研究用户信任的形式化方法及潜在干预手段。
Dec, 2023
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
本文阐述一种应对数据篡改的策略性学习方法,通过利用游戏论中的纳什均衡和先占主导策略,使数据分析人员可以同时利用多个学习者来有效避免数据篡改的影响。
Jan, 2019
用户行为对推荐算法产生影响,用户可以采取策略来塑造其未来的推荐结果。该研究实验证明用户策略化行为普遍存在,推荐平台需要考虑算法对用户行为的影响。
May, 2024
该研究旨在研究与用户交互学习的机器学习系统,以提供不同用户群体的专门化服务,并预测用户偏好;通过采用针对性的方法,克服了未知用户偏好和次优本地解决方案的挑战。
本文研究算法决策,分析了在社会不平等的情况下,一方面面临更高的成本的候选群体可能会被错误地排除,而另一方面面临更低成本的候选群体可能会被错误地接受。本文还探讨了给予补贴的干预效果,发现某些情况下给予补贴只会提高算法决策者的效用,但实际上会损害所有候选群体的利益,包括补贴接收者。
Aug, 2018