该文章从计算视角对深度学习算法的公平性问题进行了综述和分类总结,重点讨论了通过解释性来诊断算法歧视和推进公平深度学习体系的公平化方法。
Aug, 2019
该研究采用两种方法来衡量深度神经网络中的鲁棒性偏差。实证研究结果表明,在大多数情况下,存在一些少数群体处于劣势,并提出了数据分布和学习决策边界的高度复杂性是导致此类偏向的原因。
Jun, 2020
我们提出了一个名为FAIRIF的两阶段训练算法,它可以应用于一系列使用随机梯度下降训练的模型,并通过在小型验证集上计算样本权重来实现跨不同人口群体的模型性能平衡,从而缓解先前机器学习算法中存在的不公平问题。在合成数据集和实际数据集上的实验表明,FAIRIF可以在牺牲很少的模型实用性的情况下实现更好的公平性-实用性权衡。
Jan, 2022
本文提出了基于个体神经元表现出的矛盾现象的FairNeuron工具,通过选择性的神经元Dropout来实现模型准确性和公平性之间的平衡,从而有效提高所有模型的公平性,同时保持稳定的实用性。
Apr, 2022
本文提出了 Fairify 方法,使用 SMT 来验证神经网络中的个体公平性,通过输入分割和剪枝以证明或反驳公平性认证,并在 25 个实际神经网络上进行了评估。
Dec, 2022
DICE是一种信息论测试和调试框架,通过量化含有决策数据的受保护信息来识别和定位深度前馈神经网络中的公平缺陷,在此基础上提出了一种因果调试框架来定位不足训练的层和神经元,并通过实验有效地生成有歧视性的实例。
Apr, 2023
研究了贝叶斯神经网络的个体公平性,提出基于梯度攻击的全局公平性方法,证明了近似伯努利推断训练的贝叶斯神经网络比确定性模型更具有个体公平性。
从决策合理性角度出发,通过分析不同子组中神经元的影响,定义参数平衡分数来表征公平决策过程,提出了一种全新的公平性训练任务-决策合理性对齐,旨在使深度神经网络在中间层和最终预测时对子组的响应保持一致,提出了一种渐进式算法,即梯度引导的平衡对齐,可以显著提高公平性,同时保持准确性水平,且优于其他方法。
Jun, 2023
通过知识蒸馏的方式,我们提出了一种无需个人信息的人口属性不可知方法FairGKD来学习公平的图神经网络(GNNs),在性能和效益之间取得了平衡,并在多个基准数据集上验证了该方法的有效性。
Nov, 2023
通过在训练阶段解决内在偏差,FairVIC方法提高神经网络的公平性,不依赖于保护性特征进行预测,从而在不牺牲模型准确性的情况下显著提升公平度。
Apr, 2024