May, 2024
公平广义线性混合模型
Fair Generalized Linear Mixed Models
Jan Pablo Burgard, João Vitor Pamplona
TL;DR使用机器学习进行自动预测时,公平性对于预测是很重要的。本文提出了一种算法,可以同时处理数据分层抽样和公平机器学习预测质量的问题。
Abstract
When using machine learning for automated prediction, it is important to
account for fairness in the →
发现论文,激发创造
可处理模型下的机器学习公平性
本文介绍了利用可计算的概率模型实现公平性的一种方法,其中 Sum Product Networks(SPNs)可以有效地确定受保护属性与其他训练变量之间的统计关系,并通过排除那些与训练属性无关的变量来训练分类模型,从而减少男性和女性信用申请者的不公平对待。
May, 2019
fairml:统计学家对公平机器学习建模的看法
本文介绍了 fairml R 包,该包旨在通过经典统计模型和惩罚回归结果(岭回归)实现公平和可解释的机器学习模型,并提供模型估计,选择和验证功能,以及诊断图。
May, 2023
公正的核学习
研究如何通过包含公平性在目标函数中来解决机器学习中涉及敏感特征的不公平性问题。提出了基于新的公平分类框架的新型公平回归和降维方法,并通过使用 Hilbert Schmidt 独立性准则作为公平项,实现了线性和非线性问题的评估。
Oct, 2017
机器学习中的公平性
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
机器学习中的公平性:一项调查
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
有限人口分类标记数据下的公平机器学习
本研究提出了一种新型的公平训练算法,该算法在尽可能保护个人隐私的情况下,避免了在机器学习模型中存在不良社会偏见的问题。实验结果显示,该算法可以有效降低社会偏见问题。
Jun, 2021