采用最坏情况下的对数损失最小化方法将公平性标准纳入分布鲁棒性的第一原则,并基于此原则推导出一种新的分类器,该方法具有凸性和渐近收敛性,并在三个基准公平数据集上展示了其实践优势。
Mar, 2019
本文提出了一种使用 Wasserstein 距离构建概率分布空间球体,并在此基础上最小化包含了经典和常见正则化逻辑回归的最坏情况期望对数损失函数的鲁棒分布逻辑回归模型,同时使用基于 Wasserstein 球的分布鲁棒方法计算分类器误分类概率的置信度上下边界。
Sep, 2015
通过公平回归和最优输运理论的联系,得到一种最优公平的预测器,并建议了一个简单的后处理算法来实现公平。这个结果提出了最优公平预测的直观解释,并为这个过程建立了风险和无分布的公平保证。
Jun, 2020
本文介绍了一种公平解释性框架,用于在分布级别上测量和解释分类和回归模型中的偏见。通过使用 Wasserstein 度量,在模型输出的亚群分布上测量模型偏差,考虑模型和预测变量相对于非受保护类的有利性,使用运输理论进行量化,并通过博弈理论的技术实现偏见解释的可加性。
Nov, 2020
该论文提出了一种新的方法来减轻神经文本分类中的偏见,它能够在处理公正性问题时不需要敏感属性的注释,与现有的方法相比具有可比较或更好的公正性和准确性权衡。
Nov, 2023
在处理敏感信息的应用程序中,数据限制可能会对机器学习(ML)分类器的可用数据施加限制,本文提出了一个框架,模拟了在四种实际情景下准确性和公平性之间的折衷,以确定在各种数据限制情况下,贝叶斯分类器的准确性受到的影响是如何的。
Mar, 2024
我们考虑培训机器学习模型,使其在输入的某些敏感扰动下表现不变的公平性,这种公平性的形式化表述为个体公平性的一种变体,并使用分布鲁棒优化方法在训练期间强制执行。我们还展示了该方法在两个容易受到性别和种族偏见影响的机器学习任务上的有效性。
Jun, 2019
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
我们提出了针对排名模型和回归模型的成对公平度量标准,这些标准类似于统计公平概念,如平等机会、平等准确性和统计平等,通过现有的约束优化和鲁棒优化技术可以有效地解决结果训练问题,实验表明这些方法具有广泛的适用性和权衡性。
提出了首个具有收敛保证的随机分布鲁棒公平性框架,不需要对因果图的了解,在分布转移的环境中将公平推断制定为 $L_p$ 范数不确定性集合下的分布鲁棒优化问题。
Sep, 2023