最大加权损失差异
本文介绍了一个最小化最大损失的策略,用于处理团体公平性,并提供了能够支持回归、分类设置以及整体错误和误报率的相关算法。该算法还支持公平性约束的松弛,进一步研究了整体准确性与最小化最大公平性之间的权衡,并对多种数据集进行了实验分析,证明了最小化最大公平性严格和强烈优于平等结果概念。
Nov, 2020
提出一种融合分布式鲁棒优化(DRO)框架和公平度量的基于迭代优化算法的方法,称为 FairDRO,通过自动产生正确的重新加权为每个组来最小化该方法,实验结果显示我们的方法在准确性公平交换上,相对于近期的强基线方法在多项基准数据集上表现出具有实现性和易适应性的状态表现。
Mar, 2023
通过提出一种新颖的自适应重新加权方法,该论文旨在消除训练和测试数据之间分布变化对模型普适能力的影响,进而改善算法的公平性和泛化性能。实验证明了该方法在准确性和公平性度量方面的普适性,并突出了对语言和视觉模型公平性改善的性能提升。
Sep, 2023
处理不平衡分类数据时,重新权衡损失函数可以在风险度量内平衡正负类的真实率。然而,现有结果未能充分解决不平衡分类框架中的一个主要挑战,即相对于整个样本空间,一个类别的尺寸微不足道,并且需要将风险函数按趋近于零的概率重新缩放。为了解决这一差距,我们在罕见类概率接近零的情况下提出了两个新的贡献:(1)用于约束平衡实验风险最小化的非渐近快速概率界限,以及(2)平衡最近邻估计的一致上界。我们的发现更清楚地了解了类别加权在实际情况下的好处,并为该领域的进一步研究开辟了新的途径。
Oct, 2023
通过使用现成的凸规划工具(如CVXPY),本文提出了ELminimizer算法,通过将非凸优化问题转化为一系列凸优化问题,高效地找到满足等效损失约束条件下的全局最优公平预测器,并通过多个实证研究支持我们的理论结果。
Nov, 2023
控制统计机器学习方法的不公平影响是确保公平性的关键。本文探讨了具有两个受保护群体的公平二分类的统计基础,重点是控制人口统计差异,并提出了一种量化公平性约束影响的新方法。
Mar, 2024
本文考虑了机器学习中可推广的偏见缓解技术的需求,由于对公平性和歧视的担忧,这些技术在数据驱动的决策过程中得到了各个行业的应用。尽管许多现有的机器学习偏见缓解方法在特定情况下取得了成功,但它们常常缺乏可推广性,不能轻松地应用于不同的数据类型或模型。此外,准确性与公平性之间的权衡仍然是该领域的一种根本张力。为了解决这些问题,我们提出了一种基于多任务学习的偏见缓解方法,利用了多目标优化中的Monte-Carlo dropout和Pareto优势的概念。该方法在不使用敏感信息的情况下同时优化准确性和公平性,提高了模型的可解释性。我们在来自不同领域的三个数据集上测试了这种方法,并展示了它如何提供模型公平性和性能之间的最理想权衡。这使得我们能够在特定领域进行调优,其中一个指标可能比另一个更重要。通过我们在本文中介绍的框架,我们旨在增强公平性和性能之间的权衡,并为机器学习中偏见缓解方法的可推广性问题提供一个解决方案。
Apr, 2024
本研究针对模型训练中的经验风险最小化过程,提出了一种通过重加权训练数据来提升公平性的创新方法,旨在确保最优预测器在不同子群体之间的一致性。研究表明,该方法在提升预测性能与公平性指标之间的平衡方面,具有显著的效果和鲁棒性。
Aug, 2024