公平感知元学习与纳什谈判
本文提出了一种新的机器学习框架,旨在为实现公正和准确性而学习分组,从而减少 ML 模型在特定人群中的偏见和歧视,并在各种数据集上实现了最新技术的改进。
Apr, 2023
使用多目标优化的方法直接优化错误 - 公平性权衡,并提出了一个灵活的框架来定义权重分类问题和多个代价函数,以减少优化参数,同时在真实问题中获得了更好的错误 / 公平性权衡解决方案。
Apr, 2023
提出了一种新的在线元学习算法 FFML, 该算法能够在保证分类准确性的同时,学习与公平相连的模型参数。通过在三个真实世界数据集上进行实验,得到了具有显著优越性能的结果。
Aug, 2021
我们研究了图上的欺骗性公平攻击以回答以下问题:我们如何通过毒化图学习模型来欺骗性地加剧偏见?我们通过双层优化问题回答了这个问题,并提出了一个名为 FATE 的元学习框架。FATE 可广泛适用于各种公平定义和图学习模型,以及任意选择的操作方法。我们进一步实例化 FATE,对图神经网络上的统计平等和个体公平进行攻击。我们在半监督节点分类任务的真实数据集上进行了广泛的实验评估。实验结果表明,FATE 可以在考虑或不考虑公平性的情况下放大图神经网络的偏见,同时保持下游任务的效用。我们希望本文能为公平图学习的对抗鲁棒性提供启示,并为未来的研究设计稳健和公平的图学习提供指导。
Oct, 2023
通过引入长期公平性约束到适应性损失后悔框架中,我们在不断变化的环境中解决了公平感知在线学习挑战,并提出了一种独特的后悔度量 FairSAR。此外,为了确定每个时间步的最优模型参数,我们引入了一种创新的自适应公平感知在线元学习算法 FairSAOML,该算法通过有效管理偏差控制和模型准确性来适应动态环境。该问题被构建为双层凸凹优化,考虑了模型的准确性和公平性属性,理论分析得出了损失后悔和公平性约束累积违规的次线性上界。我们在动态环境中的各种真实数据集上的实验评估表明,我们提出的 FairSAOML 算法始终优于基于最先进在线学习方法的替代方法。
Feb, 2024
本文提出了一种针对不断变化的环境的公平在线学习框架 FairSAOML,通过添加长期公平性约束来构建新的遗憾度量 FairSAR 和新的自适应公平在线元学习算法,提高分布不一样时的性能,同时对累积公平性约束和损失遗憾度提供了亚线性的理论上限,实验结果表明本文提出的算法在不同的数据集和环境中均优于当前最佳的在线学习算法。
May, 2022
本文讨论了多任务学习中组公平性对于准确性的影响,提出了一种新的测量多维 Pareto 前沿的公平性 - 准确性权衡的方法,并提出了一种多任务感知公平性(MTA-F)方法来改善多任务学习中的公平性。实验结果表明,该方法的有效性。
Jun, 2021
本文介绍了一种新的多任务学习优化过程 Nash-MTL,提出了一种将多个任务之间的梯度组合看作为协商议价游戏的方法,并将合理的 Nash 议价解作为多任务联合优化的原则方法。在实验中,我们显示 Nash-MTL 取得了各领域多个多任务学习基准测试的最佳结果。
Feb, 2022
通过算法使表格数据的模型更公平一直以来都得到了广泛研究,但是技术一直偏向于修复不理想结果的神经模型,改变数据导入方式、模型权重或输出处理方式。本研究采用不同的策略,考虑更新模型的架构和训练超参数,从而在去偏执过程的开始找到具有更好结果的全新模型。我们首次将多目标神经架构搜索(NAS)和超参数优化(HPO) 应用于表格数据的领域,对 MLP、ResNet 和 FT-Transformer 进行了广泛的架构和超参数空间探索,展示了模型预测的准确性和公平性指标在超参数组合上的依赖关系。我们发现,仅为了准确性而经过 NAS 优化的模型往往无法固有地解决公平性问题。我们提出了一种新颖的方法,通过同时优化架构和训练超参数,以准确性和公平性的多目标约束来解决问题。我们设计了能在公平性、准确性或两者方面优于目前最先进的偏执缓解方法的模型,并在单目标(准确性)优化运行过程中达到了帕累托最优。该研究强调了在深度学习模型中自动化公平性和准确性优化的潜力。
Oct, 2023