- 通过将数据转化为与偏差正交的方式实现反事实公平性
介绍了一种新的数据预处理算法 Orthogonal to Bias (OB),旨在消除连续敏感变量的影响,从而实现机器学习应用中的反事实公平性,并通过模拟和实际数据集的实证评估证明该方法能够在不损害准确性的情况下实现更加公平的结果。
- 反事实公平并非人口均衡,以及其他观察
对因果概念和纯概率概念之间的等价性陈述应谨慎对待。本文研究最近关于反事实公平与人口平衡之间等价的主张,并发现该主张经不起深入研究的验证。我也将借此机会澄清一些关于反事实公平的更广泛的误解。
- 反事实公平表达
在这项研究中,我们提出了一种使用所有可用特征进行训练的新算法,从理论和实证方面证明了使用该方法训练的模型能够满足 Counterfactual Fairness。
- 因果背景连接反事实公平与稳健预测和群体公平
我们利用因果上下文桥接了反事实公平、鲁棒预测和群体公平之间的差距,展示了它们之间的等价关系,并通过测量相对简单的群体公平指标来测试反事实公平。
- 使用生成对抗网络进行预测的反事实公平性
通过开发一种名为生成对抗平衡网络(GCFN)的新颖深度神经网络,本文研究了在反事实公平性下进行预测的方法,并通过一种新颖的反事实调节器正则化方式,借助量身定制的生成对抗网络直接学习敏感属性后代的反事实分布,较好地保证了反事实公平性的概念。该 - 从观测数据中学习反事实公平性
本文提出了一种新的框架 CLAIRE,通过对反事实数据增广和不变化惩罚的表征学习框架有效地减轻了敏感属性的偏差,并在合成和真实数据集上的实验验证了 CLAIRE 在反事实公平性和预测性能方面的优越性。
- 公平和偏见的逻辑理论
本文主要论述机器学习中公平性问题,提出三种公平模型:无意识公平、人口统计学公平和反事实公平,并在认识情境演算中进行了形式化的定义。
- 利用不完美因果结构模型实现反事实公正
本研究提出一种新的极小极大博弈论模型,可以在不强制使用结构因果模型的情况下,实现准确的结果和实现反事实公正的决策,以此减轻模型预测与实际世界(观测数据)以及反事实世界(即如果个体属于其他敏感群体)中的歧视,并且我们还在多个实际数据集上进行实 - WWWDualFair: 基于对比自监督的群体和个体公平表示学习
本文提出了一种名为 DualFair 的自我监督模型,可从学到的表示中去除诸如性别和种族等敏感属性的偏差,同时优化两个公平标准,团体公平性和反事实公平性,为团体和个体提供更公平的预测,针对多个数据集进行了详细的分析,表明了该模型的有效性和进 - 因果制约的解耦表示学习在反事实公平中的应用
本文研究了公平表示学习的问题,通过使用结构表示,可以实现反事实公平性,提出了 Counterfactual Fairness Variational AutoEncoder(CF-VAE)方法,得到了优于基准公平方法的公平性和精度表现。
- 预测敏感性:部署的分类器中反事实公平性的持续审计
该研究提出了一种基于预测敏感性的方案,用于对已部署的分类器进行持续审计,以识别反对事实上的公正性。该方案不需要保护状态信息的预测时间,可以利用保护状态和其他特征之间的相关性,并展示了该方法有效检测反对事实上公正性的违规情况。
- 文本分类中的逆因果多令牌公平性
本文提出了一种名为 Counterfactual Multi-token Generation 的生成方案,通过扰动多个敏感 Token,可对各种形式的文本和文档实现更好的 Counterfactual 公平性,获得在多个基准数据集上显著的 - 使用身份信息数据增强方法实现文本分类任务的公平性
本文提出了一种两步数据增强过程,第一步是使用词嵌入方法准备身份对的全面列表,第二步是利用身份对列表通过三种简单的操作(即身份对替换、身份项盲目替换和身份对交换)增强训练实例,实验结果表明,这个增强过程可以产生多样化的身份对,并提高了基于令牌 - 使用图对抗公平性学习公平节点表示
本文提出了一种新的公平性概念 —— 图形对照公平性,并基于对照数据增强提出了一种学习节点表示的框架,以减少模型在涉及敏感属性的图形数据中的偏见,该框架在合成和真实世界的图形上的实验表明,优于现有的基线图形对照公平性,并且在预测性能方面有可比 - ACL提高反事实生成以实现公正仇恨言论检测
该研究探讨用于减少偏见的方法对具有社交群体令牌(SGT)的敏感特征的依赖,提高仪器在令牌之间的公平。在仇恨言论检测中,作者使用反事实公平并在反事实情况下等价预测,通过改变 SGTs 生成。这种方法通过对每个实例的限制反事实集上进行对数配对来 - SIGIR推荐中的个性化对抗公平性
本文提出了一个通过对抗学习生成独立于特征的用户嵌入来实现反事实公平的框架,从而使推荐系统能够为用户实现个性化的公平性。实验表明,该方法可以为用户生成更加公正且具有良好推荐效果的推荐结果。
- 公平稳定的图表示学习统一框架
本文介绍了一种新的框架 NIFTY,能够用于任何图神经网络来学习公平且具有稳定性的表示,并使用唯一目标函数和 Lipschitz 常量开发了一种分层权重标准化来增强 GNN 中的神经消息传递。作者还引入了三个新的图形数据集来演示他们提出的框 - 性别倾斜:通过属性操作实现计算机视觉模型的反事实公平性
本文提出了一种使用编码器 - 解码器网络开发的人脸图像合成方法,以测量商业计算机视觉分类器的反事实公平性,并报告了在线搜索服务中与职业相关的关键字中出现的偏向性,用以解释模型偏差的来源。
- 公平临床风险预测的反事实推理
本文使用机器学习系统支持决策制定在医疗保健中的问答涉及使用电子医疗记录中的观察性数据中隐含的偏见,进而进一步发展了组公平性标准,以在个体层面上扩展增益计数事实公正标准,探讨扩增的标准是否可以应用于使用观测性电子健康记录数据的病人长住和死亡的 - 通过鲁棒性实现文本分类的反事实公平性
本文研究文本分类中的反事实公平性问题,提出了一种度量特定公平性形式 —— 反事实令牌公平性 (CTF) 的度量准则,利用三种方法 —— 盲化、反事实增强和反事实逻辑配对 (CL) 解决训练中的反事实令牌公平性优化问题,这些方法不会影响分类器