基于 Transformer 神经网络的公平分类:教育领域案例研究
机器学习算法已被广泛应用在各种领域,然而由此带来的公平性问题在高风险案例(如人脸识别和医学影像分析)中引起了极大关注。本文针对深度神经网络中公平性的限制条件及其行为矫正方法的有效性进行了研究,实验结果表明,在特定公平度量下,大型模型会对公平的过度拟合而产生一系列意外和不良后果。
Feb, 2021
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
通过算法使表格数据的模型更公平一直以来都得到了广泛研究,但是技术一直偏向于修复不理想结果的神经模型,改变数据导入方式、模型权重或输出处理方式。本研究采用不同的策略,考虑更新模型的架构和训练超参数,从而在去偏执过程的开始找到具有更好结果的全新模型。我们首次将多目标神经架构搜索(NAS)和超参数优化(HPO) 应用于表格数据的领域,对 MLP、ResNet 和 FT-Transformer 进行了广泛的架构和超参数空间探索,展示了模型预测的准确性和公平性指标在超参数组合上的依赖关系。我们发现,仅为了准确性而经过 NAS 优化的模型往往无法固有地解决公平性问题。我们提出了一种新颖的方法,通过同时优化架构和训练超参数,以准确性和公平性的多目标约束来解决问题。我们设计了能在公平性、准确性或两者方面优于目前最先进的偏执缓解方法的模型,并在单目标(准确性)优化运行过程中达到了帕累托最优。该研究强调了在深度学习模型中自动化公平性和准确性优化的潜力。
Oct, 2023
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020