评分策略代理
本文提出了在实现线性设置中优化三种不同决策者目标的决策规则的有效算法,包括准确预测智能体事后结果 (预测风险最小化),激励智能体改进这些结果 (智能体结果最大化),以及估计真实基础模型的系数 (参数估计)。其中的算法绕过了 Miller 等人的一个困难结果,允许决策者测试一系列决策规则并观察智能体的响应,从而通过决策规则实现因果干预。
Feb, 2020
研究了由 Stackelberg 博弈建模的信息获取问题,设计了样本有效的算法来优化评分规则,并保证了代理的行为得到激励,且无关环境状态数的遗憾值上界为 T 的两到三次方根。
Mar, 2023
研究在线线性分类问题,应对操纵特征的策略代理的对抗性选择和他们操纵向量的揭示偏好,提供一个计算有效的学习算法,获得减小的 Stackelberg 后悔以近似于最佳分类器。
Oct, 2017
本文提出了一种称为代理评分规则(Surrogate Scoring Rules, SSR)的方法,在私有概率信念的情况下,实现了激励兼容性和支配性诚实性,将之应用于多任务场景中,它们能够评估信息质量,即使没有绝对答案。作者通过真实数据的分析和经验验证,证明了这种方法的有效性。
Feb, 2018
该文研究了几种评分规则,以便为概率预测模型评分或估计模型参数。研究发现,采用对数评分规则以在更不确定的情况下犯错为优势,采用球形评分规则则以在较低不确定性下犯错为优势,而其他评分规则则对两种选择都不关心。
Dec, 2011
在战略分类中,学习者以一定的代价修改特征,以期从学习者的分类器中获得正面分类。我们考虑学习者在战略分类中部分信息披露的问题,研究代理在非完全了解分类器参数的情况下的最佳响应。我们展示了部分信息披露在增加代理操纵能力的同时,反直觉地有利于学习者的准确性,并提出了一些关于学习者优化问题的正面和负面结果,探讨了学习者应该披露多少信息来最大化预期准确性的算法问题。
Feb, 2024
本论文探讨了当预测可以影响结果时,如何激励专家准确报告其信念,发现最大化预期得分的报告通常不反映专家的信念,给出了其不准确性的界限,并讨论了其他激励机制。
May, 2023
研究如何设计评估机制以最大化群体中的总体质量得分,并在模型的特定设置下研究了找到最大化社会福利评估机制的算法方面,其中评分是线性的且机制使用可观察特征的线性评分规则时,最优评估机制是质量得分的适当投影;当机制必须使用线性阈值时,我们设计了一个多项式时间算法,并在概率分布足够光滑且具有寻找密集区域的 Oracle 的情况下实现了(1/4)- 近似保证
Nov, 2020
本研究探讨了基于监督学习的自动评分方法中,考虑到不同人评分偏好的各种模型。研究采用短答数学回答数据集进行了定量实验,并分析了各个评分人的个体偏好。结果表明,采用考虑评分者偏好的模型能够提高自动评分准确性。
Jun, 2023