ICMLJun, 2022
主动公平性审计
Active Fairness Auditing
Tom Yan, Chicheng Zhang
TL;DR研究 ML 模型的审计算法,通过提出确定性算法和实用的随机化算法来评估 ML 模型的人口统计平等,以帮助监管机构应对机器学习的监管挑战,并为 AI 治理奠定更坚实的理论基础。
Abstract
The fast spreading adoption of machine learning (ML) by companies across
industries poses significant regulatory challenges. One such challenge is
scalability: how can regulatory bodies efficiently audit these ML models,
ensuring that they are fair? In this paper, we initiate the study
发现论文,激发创造
FairCompass:机器学习中的公平操作
提出了一种名为 'FairCompass' 的人在循环中的公平审计方法,通过混合可视化分析系统将子组发现技术和基于决策树的模式集成到终端用户中,以促进可视分析的知识生成模型的使用,在实际情境中评估了 FairCompass 的公平审计效果,结果显示该系统在实际应用上具有潜力,望能填补公平性研究中的现行空白并促进在机器学习系统中的公平性操作实施。
Dec, 2023
数据视角下的公平性:机器学习模型认证
本文介绍了一个基于交互和隐私保护测试的框架,该框架允许对任何经过训练的模型进行公平程度的认证,无论其训练过程和架构如何,并且提供了一种加密技术来自动进行公平测试和认证推理,同时隐藏参与者的敏感数据。
Sep, 2020
算法公平监控
本文介绍了一种基于统计推断的系统的运行时监测技术,该系统具有未知的结构但是被假定为具有马尔可夫链结构。我们引入了一种规范语言,可以模拟许多常见的算法公平性属性,例如人口平均,平等机会和社会负担。使用原型实现,我们展示了如何监测银行在不同社会背景的申请人给予贷款以及学院在保持合理的社会负担的情况下公平地录取学生。
May, 2023
低数据环境下公正主动学习
在数据稀缺环境中,通过结合后验采样和公平分类子程序的创新主动学习框架,我们有效地提高了模型准确性并满足公平约束,证明了该方法在最大限度利用少量标注数据时的有效性,并对已有方法进行了改进。
Dec, 2023
机器学习中的公平性
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020