Oct, 2017
公正的核学习
Fair Kernel Learning
Adrián Pérez-Suay, Valero Laparra, Gonzalo Mateo-García, Jordi Muñoz-Marí, Luis Gómez-Chova...
TL;DR研究如何通过包含公平性在目标函数中来解决机器学习中涉及敏感特征的不公平性问题。提出了基于新的公平分类框架的新型公平回归和降维方法,并通过使用 Hilbert Schmidt 独立性准则作为公平项,实现了线性和非线性问题的评估。
Abstract
New social and economic activities massively exploit big data and machine
learning algorithms to do inference on people's lives. Applications include
automatic curricula evaluation, wage determination, and risk assessment for
credits and loans. Recently, many governments and institutions have raised
concerns about the lack of →
发现论文,激发创造
机器学习中的公平性
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
在群体公平设置中检测敏感特征的统计学方法
本文提出了一种基于 Hilber-Schmidt 独立性准则的预处理步骤,用于自动识别敏感特征,以解决机器学习模型在高度影响社会的决策支持系统中不公平结果的问题。我们的实验结果证明了我们的假设,并表明文献中被认为是敏感的几个特征不一定产生不公平结果。
May, 2023
机器学习中的公平性:一项调查
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
公平约束:公平分类的机制
该研究引入了一种灵活的机制,以设计公平的分类器,其中利用了一种新颖的、直观的决策边界(不)公平度量,并结合实际的数据表明,该机制在维持准确度的小代价下,允许对公平度进行微调。
Jul, 2015
公平高效机器学习的解耦分类器
本文研究当使用敏感信息来训练机器学习系统时如何保证公平性,提出了一种有效的技术 —— 基于转移学习的去耦合方法,并且可适用于多个公平标准下的任务,但是需要在应用设计者规定的联合损失函数下权衡公平性和准确性。
Jul, 2017
可处理模型下的机器学习公平性
本文介绍了利用可计算的概率模型实现公平性的一种方法,其中 Sum Product Networks(SPNs)可以有效地确定受保护属性与其他训练变量之间的统计关系,并通过排除那些与训练属性无关的变量来训练分类模型,从而减少男性和女性信用申请者的不公平对待。
May, 2019