组条件缺失人口的公平风险
本研究通过引入不确定性感知,对可能存在不确定性的人口敏感属性样本实施公平性要求,并提出一种建立更好的公平性 - 准确性权衡的属性分类器框架,实验证明该框架相对于传统方法在两个数据集上都取得显著的公平性 - 准确性权衡表现优势,并且超过了对真实敏感属性进行约束训练的模型。
Jul, 2023
本研究提出了一种新型的公平训练算法,该算法在尽可能保护个人隐私的情况下,避免了在机器学习模型中存在不良社会偏见的问题。实验结果显示,该算法可以有效降低社会偏见问题。
Jun, 2021
在医学图像诊断中,公平性变得越来越重要。本文提出了一种方法,在测试阶段实现对敏感属性的公平预测,而无需在训练过程中使用此类信息,并通过增强模型特征和规范特征的纠缠关系来提高公平性和准确性。实验结果表明,在两个皮肤病数据集中,该方法能够提高分类的公平性。
Jan, 2024
本研究考虑了医学成像模型的算法公正性问题,并研究了模型对人口统计学属性的潜在编码问题,提出了对各种公正性方法的限制。最终得出结论,医学图像模型可能需要编码人口统计学属性,需要在预测性能方面进行全面的模型公平性评估。
May, 2023
本文探讨了收集人口统计数据用于实现算法公平性所面临的风险和挑战,并呼吁在数据管理和系统性压抑等领域中解决这些问题。
Apr, 2022
控制统计机器学习方法的不公平影响是确保公平性的关键。本文探讨了具有两个受保护群体的公平二分类的统计基础,重点是控制人口统计差异,并提出了一种量化公平性约束影响的新方法。
Mar, 2024
研究算法公平性和隐私在机器学习中的应用,分析了公平性对训练数据信息泄露的影响,发现公平性会牺牲一部分隐私权,特别是对弱势群体。同时,训练数据的偏差越大,为了弱势群体的公平性所付出的隐私成本也越高。
Nov, 2020
通过允许模型在性能近乎相等的群体上产生微小概率差距的方法,基于条件风险价值 (CVaR) 提出了一种检测性能差异的方法;同时证明了具有特定先验分布权重的情况下,Rényi 熵阶数为 2/3 的先验分布可以捕获所提出的 CVaR 测试算法的样本复杂性。
Dec, 2023
本研究提出了基于多任务框架的公平性训练方法,通过对相关任务中的人口统计数据进行利用,减少目标任务中的偏差,即使在没有内部统计数据的情况下也可以提高公平性。
May, 2023