本研究探索如何使用现成的面部识别模型嵌入来作为一种代理措施,以实现在计算机视觉模型上评估面孔属性预测和情绪估计等任务中的不平等度量分析。
Apr, 2022
本文讨论了估计器误差分解中的偏差项、方差项和不可避免噪声项, 研究了社会特权和社会劣势群体的公平性问题,并提出了一种基于组间方差的性能度量方法。同时,研发了一个开源库,将不确定性量化技术与公平性分析融合,并在标准基准测试上对基于方差的公平性度量方法进行了全面的实证分析。
Feb, 2023
本文介绍了一种关于在公平分类中使用集成算法,解决分类结果不稳定导致任意性和观点关于公平性的不可靠等问题。实验结果表明,我们的方法可以显著降低子组误差率差异,无需使用常见的公平性干预措施。
Jan, 2023
该论文通过引入一套阈值不可知的度量标准,考虑分类器分数分布在指定群体中的变化,从而提供了深入了解机器学习中的未预期偏差的视角,该方法可帮助发现现有公共模型中的新的潜在微妙的偏差,并使用在线评论和众包注释展示该度量标准的运用。
Mar, 2019
本文提出了两个简单而有效的度量标准,Combined Error Variance (CEV) 和 Symmetric Distance Error (SDE),以定量评估两个模型的类别偏差相对多少。 通过评估这些新指标的性能并展示它们的实际应用,我们证明它们不仅可以用于衡量公平性,而且还可以用于衡量偏差。 这些演示表明,我们的指标可以满足在多类分类中衡量偏差的特定需求。
Oct, 2021
通过引入基于不同类型的不确定性,即不确定性度量和主观不确定性度量,证明了不确定性度量在公平性评估中的补充作用,并提供了关于导致偏见的潜在问题的更多见解。
Dec, 2023
本文介绍了通过采样偏差分析和定义样本大小偏差和代表性偏差,以及探讨借助企图收集欠代表的群体样本来处理歧视的观点。
Jun, 2023
机器学习和数据驱动算法在决策制定领域的广泛应用已逐年增加,但相关负面影响也随之日益严重。负面数据偏差是其中之一,会对特定群体造成有害后果。为解决偏差带来的负面后果,必须首先认识到其存在,并找到一种能够理解和量化的方法。本文的主要贡献是:(1)提出了一个定义和高效量化数据集相对于保护群体偏差水平的通用算法框架;(2)定义了一种新的偏差度量方法。我们的实验结果在九个公开数据集上得到验证,并进行了理论分析,从而为该问题提供了新的见解。基于我们的方法,我们还推导出一种可能对政策制定者有用的偏差缓解算法。
May, 2024
存在情况下,偏见缓解技术能够更准确的模型,在无偏数据上测量时。我们通过对偏见类型和缓解技术的效果建立关系来解决这一问题,并用理论分析来解释实验结果,并展示最小化公平度量并不一定会产生最公平的分布。
Mar, 2024
本文对教育数据挖掘中不同组公平措施和学生表现预测模型进行比较,发现公平措施和成绩阈值的选择对模型的预测效果具有重要影响。
Aug, 2022