SimFair: 基于模拟模型的物理引导公平感知学习
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本研究探索了在多标签分类任务中公平意识的构建,并提出了一种新的框架,名为相似性诱导公平。该框架利用具有相似标签的数据来实现更好的稳定性,在多标签数据上表现出比现有方法更好的性能。
Feb, 2023
本文研究了使用公平性度量来指导模型的设计和训练的机制,提出了一种简单但可靠的方法,即在训练模型时同时实现公平,并通过详细的技术分析和实验验证了在计算机视觉训练任务中可靠地实现各种公平性度量。
Apr, 2020
本文介绍了一种基于统计推断的系统的运行时监测技术,该系统具有未知的结构但是被假定为具有马尔可夫链结构。我们引入了一种规范语言,可以模拟许多常见的算法公平性属性,例如人口平均,平等机会和社会负担。使用原型实现,我们展示了如何监测银行在不同社会背景的申请人给予贷款以及学院在保持合理的社会负担的情况下公平地录取学生。
May, 2023
通过引入长期公平性约束到适应性损失后悔框架中,我们在不断变化的环境中解决了公平感知在线学习挑战,并提出了一种独特的后悔度量 FairSAR。此外,为了确定每个时间步的最优模型参数,我们引入了一种创新的自适应公平感知在线元学习算法 FairSAOML,该算法通过有效管理偏差控制和模型准确性来适应动态环境。该问题被构建为双层凸凹优化,考虑了模型的准确性和公平性属性,理论分析得出了损失后悔和公平性约束累积违规的次线性上界。我们在动态环境中的各种真实数据集上的实验评估表明,我们提出的 FairSAOML 算法始终优于基于最先进在线学习方法的替代方法。
Feb, 2024
本文介绍了一个基于交互和隐私保护测试的框架,该框架允许对任何经过训练的模型进行公平程度的认证,无论其训练过程和架构如何,并且提供了一种加密技术来自动进行公平测试和认证推理,同时隐藏参与者的敏感数据。
Sep, 2020
本文提出了一种基于联邦估计方法的公平模型训练方案,可以在跨边界联邦学习中保护隐私和公平,实现高性能的公平模型训练,实验结果表明本方法的性能优异。
Sep, 2021
通过在敏感属性上等化合成数据生成器的目标概率分布,使用 AI 生成的合成数据进行训练的下游模型能够提供公平的预测,使得即使从偏见的原始数据推断出来,也能够提供强大的公平预测。
Nov, 2023