该文提出了一种用于分类表格数据的前馈神经网络的因果公平性认证方法,能够准确判定机器学习模型是否有偏差,并在可扩展的精度方面提供了不同的选择。
Dec, 2019
本文介绍了一个基于交互和隐私保护测试的框架,该框架允许对任何经过训练的模型进行公平程度的认证,无论其训练过程和架构如何,并且提供了一种加密技术来自动进行公平测试和认证推理,同时隐藏参与者的敏感数据。
Sep, 2020
基于零知识证明技术的 FairProof 系统通过公开验证模型公平性的同时保持机密性,解决了使用机器学习模型时面临的法律、隐私及公平性等问题。
Feb, 2024
机器学习算法已被广泛应用在各种领域,然而由此带来的公平性问题在高风险案例(如人脸识别和医学影像分析)中引起了极大关注。本文针对深度神经网络中公平性的限制条件及其行为矫正方法的有效性进行了研究,实验结果表明,在特定公平度量下,大型模型会对公平的过度拟合而产生一系列意外和不良后果。
Feb, 2021
本文介绍了一种基于自适应浓度不等式的可扩展算法,用于验证机器学习系统在进行社会决策时是否会对少数族裔造成不公平待遇,并在一个名为 VeriFair 的工具中实现了这个算法,并证明该算法能够扩展到大的机器学习模型,包括一个比先前已验证过的神经网络大五个数量级的深度循环神经网络,虽然该技术只提供概率保证,但可以选择非常小的误差概率。
Dec, 2018
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本文旨在通过构建验证器来证明一个模型是否符合个体公平。我们针对决策模型与结构化数据的情况进行研究,特别考虑了线性分类器和核多项式 / 径向基函数分类器。实验结果表明,我们提出的算法对公开数据集的评估是可行的。
Jun, 2020
本文提出了一种名为 FairReprogram 的通用公平学习范式,旨在消除机器学习模型中存在的人口统计偏差问题,该方法通过在输入数据中追加多组扰动向量,使得机器学习模型无法准确获取输入数据的真实信息从而达到公平的目标。实验证明此方法显著有效,并且效果比现有的基于重新训练权值的方法要好。
Sep, 2022
神经网络的分布个体公平性的高效认证界限是可扩展、实用和可靠的算法公平性保证来源。
Nov, 2023
从决策合理性角度出发,通过分析不同子组中神经元的影响,定义参数平衡分数来表征公平决策过程,提出了一种全新的公平性训练任务 - 决策合理性对齐,旨在使深度神经网络在中间层和最终预测时对子组的响应保持一致,提出了一种渐进式算法,即梯度引导的平衡对齐,可以显著提高公平性,同时保持准确性水平,且优于其他方法。
Jun, 2023