通过概率人群分析,我们重新审视标准的公平分类问题,并揭示出贝叶斯最优分类器。我们的方法统一了各种现有的组公平分类方法,并扩展到各种不可分解的多类性能度量和公平性度量。在各种真实数据集上,我们提出的方法在公平性与性能的权衡方面优于基线。
Jun, 2020
本研究提出了两种子群公平和瞬时公平的概念,解决了时间序列预测中的偏差问题,并使用凸化层次结构全局收敛优化方法来证明我们的方法的有效性。
Sep, 2022
本文利用在线随机决策过程实现近似群体公平,其中公平度量考虑到等于几率。通过经典的专家学习方案,通过一个有限的分类器集的基础上运行该算法的单个实例,为标签类和敏感群体运行单独的算法实例,通过一些理论结果表明,在不损失太多遗憾的情况下,可以实现近似的等几率结构。
Aug, 2019
在机器学习中,通过使用受保护的属性定义的结构化函数类来提议一种新的公平统计定义,从而语义上定义了指数级(或无限个)子组内的统计不变性,并证明了公平子组审核的计算问题与弱自适应学习问题等价,提出了两种算法,证明了这些算法在解决自治学习问题的情况下可以收敛,其中第二种方法具有简单和更快的步骤计算的优点。
Nov, 2017
研究了 Kearns 等人提出的富子群公平概念及其算法,经过对四个真实数据集的大量实证评估,证明其可行性和有效性。
Aug, 2018
公平机器学习中,性能差异的一个原因是对训练样本较少的群体过拟合。本文推导了福利为中心的公平机器学习的群体特定的泛化误差界,从而得益于多数群体较大的样本量。通过考虑一个受限假设类中的群体特定的 Rademacher 平均,该假设类包含了在公平学习目标(如 power-mean)方面表现良好的模型族。我们的模拟实验证明,这些界限相对于朴素方法有所改进,并且对于较小的群体大小改进尤为显著。
Feb, 2024
通过单一超参数在一组大小约束下,在不依赖事先定义敏感群组或额外标签的情况下,确保联邦学习的团体公平性,同时实现公平与效用之间的权衡。
研究了一种在线分类问题,其中个体按固定但未知的分布一个接一个地到达,并必须被分类为积极或消极,算法只有在他们获得正分类时才会观察到个体的真实标签。该设置捕捉到许多分类问题,要求算法满足公平性约束.
Feb, 2019
研究机器学习的公平性标准,提出一种使用鲁棒优化的新方法来处理受保护群体的嘈杂标签问题,并经实验验证,该方法能更好地保证在真实受保护群体上的公平性标准。
Feb, 2020
本文从序列决策的角度出发,通过优化专家分配提高决策的准确性和公正性,并展示了该方法在合成数据和真实世界数据中的有效性。
May, 2018