- KDDAIM:归因、解释、减轻数据不公平
数据收集中的历史性歧视对弱势群体和个体产生了影响。现有的公平机器学习研究主要致力于减轻模型预测中的歧视倾向,但对于如何追踪数据中存在的偏见却付出了较少的努力,尽管这对公平机器学习的透明度和可解释性非常重要。为了填补这一空白,我们研究了一个新 - 资源有限公平
我们的研究引入了 “资源约束公平性” 概念,并在这个框架下量化了公平性的成本,证明了可用资源水平对该成本具有显著影响,这是以往评估中被忽视的因素。
- Aequitas Flow:简化公平机器学习实验
Aequitas Flow 是一个用于 Python 的开源框架,用于端到端公平机器学习实验。该框架提供了公平模型训练、超参数优化和评估的流程,旨在提高公平机器学习实践的可扩展性和采用度。
- 机器学习在医疗领域中公平特征选择的评估
在普遍采用机器学习的医疗领域,自动化的社会偏见可能会加剧健康差距,我们探索了从特征选择的角度来解决算法公平性。传统的特征选择方法忽视了不同子群体之间这些因素的差异,而我们的公平特征选择方法考虑了所有人口群体的平等重要性。我们在三个公开可用的 - 是否合并:对共享模型中群体公平训练的正则化效果分析
公平机器学习中,性能差异的一个原因是对训练样本较少的群体过拟合。本文推导了福利为中心的公平机器学习的群体特定的泛化误差界,从而得益于多数群体较大的样本量。通过考虑一个受限假设类中的群体特定的 Rademacher 平均,该假设类包含了在公平 - 多样化集成:众包机器学习实验
通过竞赛平台的众包机器学习是一种流行且常见的方法,这篇论文开发了一种另类的众包框架来整合社区反馈,以解决群体不公平问题,并提供了关于部署这种框架的具体指导。
- ICLR部分已知因果图的干预公平性:一种约束优化方法
本文提出了一种基于干预的因果公平性框架,用于在部分已知因果图的情况下实现公平预测,该方法使用部分有向无环图(PDAG)来度量因果公平性,并制定一个受限制的优化问题来平衡公平性和准确性。模拟和真实数据集的结果证明了该方法的有效性。
- 通过强化学习在动态系统中找到公平性的平衡点
在这篇论文中,我们研究了在顺序决策中存在着动态系统的公平性问题,提出了一个基于马尔可夫决策过程的算法框架,通过预处理和处理中方法集成各种公平性考虑,平衡传统公平性、长期公平性和效用。
- 公平的多项式对数逼近低成本层次聚类
公平机器学习领域的关键问题是公平聚类算法的研究,特别是在现代智能系统引发了许多伦理争议的情况下。Ahmadian 等人提出了针对分层聚类的公平性研究,但他们的算法是高度理论化的。Knittel 等人提出了第一个实际的成本公平近似算法,但未能 - 公正回归中的平等覆盖机会
我们研究在具有预测不确定性的公平机器学习中,以实现可靠和可信赖的决策。我们提出了一种新的基于不确定性的公平性方法 —— Equal Opportunity of Coverage (EOC),旨在实现两个性质:(1)相似结果的不同组别的覆盖 - 走向公平表达的毒性注入
公平机器学习,公平表征学习及数据污染攻击的研究。
- 费米博士:一种随机分布鲁棒公平经验风险最小化框架
提出了首个具有收敛保证的随机分布鲁棒公平性框架,不需要对因果图的了解,在分布转移的环境中将公平推断制定为 $L_p$ 范数不确定性集合下的分布鲁棒优化问题。
- MM使用财产征集理解公平约束的影响
预测算法通常通过优化某个损失函数来进行训练,并添加正则化函数来对违反约束进行惩罚。我们使用属性提取方法来了解损失函数和正则化函数与给定问题实例的最优决策之间的关系,探究一些常见的满足条件的正则化函数对公平机器学习的影响。我们还从经验上展示了 - 可验证公正性:机器学习系统中隐私保护的公平计算
通过使用一种安全、可验证且保护隐私的协议,Fairness as a Service (FaaS) 提供了一种计算和验证任何机器学习模型公平性的方法,并通过加密保护数据和结果的隐私,同时零知识证明和多种公平性指标的支持使其能够作为一种服务来 - 协调预测和统计平等:因果方法
通过对统计平等和预测平等的关系进行原因分解,我们得出了一种新的公式,使得两种平等概念不互斥,而是互补的,并通过业务必要性的理念涵盖了公平性概念的一系列光谱,最终我们通过真实世界的案例证明了我们发现的重要性。
- 防止演化数据流中的歧视性决策制定
本工作提出了一种用于实时数据流的公平换衡方法 $FS^2$,并设计了一个统一的性能公平度量 FBU,用于评估和比较不同偏差缓解技术之间的效用和公平性之间的平衡。
- 公平与稳定性:估计方差是朋友还是敌人?
本文讨论了估计器误差分解中的偏差项、方差项和不可避免噪声项, 研究了社会特权和社会劣势群体的公平性问题,并提出了一种基于组间方差的性能度量方法。同时,研发了一个开源库,将不确定性量化技术与公平性分析融合,并在标准基准测试上对基于方差的公平性 - 公平分类的超参数调整,不需要敏感属性访问
该论文提出 Antigone 框架,通过使用基于偏见分类器所产生的伪敏感属性标签来训练公平分类器,无需使用敏感属性标签,通过同时最大化准确性和公平性来实现平等机器学习。
- 通过平衡影响训练公平的深度神经网络
我们提出了一个名为 FAIRIF 的两阶段训练算法,它可以应用于一系列使用随机梯度下降训练的模型,并通过在小型验证集上计算样本权重来实现跨不同人口群体的模型性能平衡,从而缓解先前机器学习算法中存在的不公平问题。在合成数据集和实际数据集上的实 - 公平指南:社会科学和形式科学角度的观点
介绍了机器学习中公平性的哲学、社会学和法律思想,并探讨了其中存在的问题与批评。