通过单一超参数在一组大小约束下,在不依赖事先定义敏感群组或额外标签的情况下,确保联邦学习的团体公平性,同时实现公平与效用之间的权衡。
Feb, 2024
研究了在训练标签被随机噪声污染和误差率依赖于保护子组的成员函数的情况下如何训练公平分类器,发现简单地强制使用人口统计差异措施达到平等,会降低分类器的准确性和公平性。通过使用指定的替代损失函数和替代约束条件对经验风险最小化进行优化可以减少标签噪声引起的问题。
Oct, 2020
介绍了一种名为 Welfare-Equalizing 的公平算法,旨在保护受保护群体。该方法提供了一种公平性数据分类的统一框架,以及一种计算最优分类器的算法。
May, 2019
本文研究在没有标记受保护组的数据集的情况下,通过改善代理组的公平度量来提高真实敏感组的公平度,并在基准和实际数据集上进行了实验。 然而,该策略的有效性可能取决于公平度量的选择以及代理组在约束模型参数方面与真实受保护组的对齐程度。
Jun, 2018
在机器学习中,通过使用受保护的属性定义的结构化函数类来提议一种新的公平统计定义,从而语义上定义了指数级(或无限个)子组内的统计不变性,并证明了公平子组审核的计算问题与弱自适应学习问题等价,提出了两种算法,证明了这些算法在解决自治学习问题的情况下可以收敛,其中第二种方法具有简单和更快的步骤计算的优点。
Nov, 2017
研究了 Kearns 等人提出的富子群公平概念及其算法,经过对四个真实数据集的大量实证评估,证明其可行性和有效性。
Aug, 2018
我们设计了一种单一的群体盲扫描映射,它使源数据中两个群体的特征分布对齐,从而实现了(人口)群体平等,而不需要在映射的计算和使用过程中提供个体样本的受保护属性的值,也不依赖受保护属性的可访问性或估计。
Oct, 2023
提出一种融合分布式鲁棒优化(DRO)框架和公平度量的基于迭代优化算法的方法,称为 FairDRO,通过自动产生正确的重新加权为每个组来最小化该方法,实验结果显示我们的方法在准确性公平交换上,相对于近期的强基线方法在多项基准数据集上表现出具有实现性和易适应性的状态表现。
Mar, 2023
本文研究了含有噪声敏感特征的公平机器学习算法,表明当使用均值差异分数作为公平性量度标准时,只需通过调整所需的公平容错率即可仍然学习出公平分类器,该容错率可以通过现有噪声率估计器进行估计,并在两个敏感特征审查案例研究中得到实证有效性。
Jan, 2019
提出了一种基于 GroupMixNorm 层的处理方法,通过混合样本的组级特征统计数据来减轻深度学习模型中的偏见,该方法在减少偏见的同时对整体准确性影响较小。实验结果表明该方法在标准数据集上取得了最先进的性能,同时还表明 GroupMixNorm 层对于新的受保护属性在推理过程中的稳健性及其在预训练网络中消除偏见的效用。
Dec, 2023