在结合专家建议时保持非歧视性
本文研究线性bandit问题中的公平性,提出meritocratic公平的概念,并在更广泛的问题上进行分析,得出更好的性能保证。同时,探讨了无限线性bandit问题中的公平性问题,证明了实例相关性是必要的。结果是一个在线线性环境中meritocratic公平的框架,比现有技术的研究更强大、更普遍和更现实。
Oct, 2016
通过学习符合 Hardt等人提出的“平等赔率”概念中的“保护属性”的非歧视性预测器,我们从统计和计算的角度研究了从有限训练集中学习这样的非歧视性预测器的问题。我们表明事后的校正方法可以具有很高的次优性,提出一种接近最优的统计过程,证明相关的计算问题是难以解决的,并提出一个满足可学习性的关于非歧视性定义的二阶弛豫。
Feb, 2017
针对算法可能存在的歧视问题,该研究提出了一种新的算法公平度量标准,名为multicalibration,保证对每个子人群的预测都准确,从而实现更加精准的预测和防止歧视问题的出现。
Nov, 2017
本研究提出一种基于个体和统计概念的新公平性定义族,设计了一种可以访问任何标准公平性无关的学习启发式算法的神谕有效算法,用于公平经验风险最小化任务,并且通过实验证明了其效果。
May, 2019
本文利用在线随机决策过程实现近似群体公平,其中公平度量考虑到等于几率。通过经典的专家学习方案,通过一个有限的分类器集的基础上运行该算法的单个实例,为标签类和敏感群体运行单独的算法实例,通过一些理论结果表明,在不损失太多遗憾的情况下,可以实现近似的等几率结构。
Aug, 2019
研究在具有重叠人口和顺序预测的情况下改善对子群体的公平性的方法,并指出当多个重叠群体的目标不是平等预测而是良好预测时,满足此保证的任务并不简单,即使针对每个子群体分别提供性能良好的预测器,对于未加权的假阴性和假阳性率的简单目标而言,满足这个目标在统计上也可能是不可能的。
Sep, 2019
本文介绍了一个最小化最大损失的策略,用于处理团体公平性,并提供了能够支持回归、分类设置以及整体错误和误报率的相关算法。该算法还支持公平性约束的松弛,进一步研究了整体准确性与最小化最大公平性之间的权衡,并对多种数据集进行了实验分析,证明了最小化最大公平性严格和强烈优于平等结果概念。
Nov, 2020
本文探讨了如何在low noise的情况下, 通过logarithmic loss和triangular discrimination达到contextual bandits问题中的first-order guarantees,取得了很好的效果和结果
Jul, 2021