再现中的公平性:将刻板印象量化为再现损害
通过社会心理学的视角,以性别刻板印象在图像搜索中的案例研究为例,本文研究了机器学习误差对人们心理体验的影响,发现刻板印象加强型误差会引起更多主观上的伤害体验,而对认知信念、态度或行为的影响较小,这种伤害对女性的影响较大。然而,某些违背刻板印象的误差对男性而言会造成更多主观伤害,可能是因为被认为威胁到男性气概。因此,本文得出结论,公平度量不能仅以伤害为唯一指南,应根据不同受伤者的感受和原因,提出更细致的观点。
Feb, 2024
为了防止受保护人口受到歧视,减轻数据拥有者法律责任,本文尝试通过映射特征到公平表征空间,预防性地消除特征与敏感属性之间的相关性。实验结果表明,平滑表征分布可提供公平证书的泛化保证,同时不降低下游任务的准确性。
Jun, 2020
自我监督学习中的少数群体代表性受损现象对于性能的影响是一个严重的问题,这篇论文表明了对比学习 tends to collapse representations of minority groups with certain majority groups,并通过图像和文本数据集进行了验证。通过对下游分类任务中的分配伤害的因果中介分析,我们发现表示伤害在其部分上负责,从而强调研究和减轻表示伤害的重要性。最后,我们利用一个随机块模型提供了表示伤害的理论解释,从而导致自监督学习中的表示神经网络崩溃。
Oct, 2023
本篇研究旨在提出一种新算法,用于学习公平的表征,以在分类环境下同时缓解不同人口统计特征子组之间的两种不平等概念。通过平衡误差率和条件对齐的表征等两个关键组件,它对确保跨组别的准确平等性和平衡假阳性和假阴性率发挥了作用。此外,我们还通过理论和两个实际实验证明,与现有的学习公平表征的算法相比,在平衡数据集上提出的算法可以在保持效用公平性的前提下得到更好的公平性。
Oct, 2019
利用面部表情识别 (FER) 作为领域,通过分析性别人口的代表性和刻板性两种偏见,研究了数据集中的人口偏见对机器学习模型的传播情况。结果显示,代表性偏见对模型的影响较弱,而刻板性偏见具有显著的影响,主要集中在有偏见的类别上,尽管它也会影响无偏见类别的预测。这些结果强调了需要区分不同类型偏见的偏见分析,这对于有效的偏见缓解策略的开发至关重要。
Jun, 2024
探讨机器学习算法公平性如何在预测任务中被正式化,并提供相应的社会科学文献中分配公正的概念,通过理论和实证批判这些概念,并解释这些批判如何限制相应公平正式化的适用性和讨论潜在公平正式化的路径。
Oct, 2017