Jun, 2018

来自带偏见数据的公平机器学习中的残留不公平

TL;DR研究公平机器学习时,为达到公平,可以通过在不同群体之间平衡度量指标,并研究历史偏见对数据集的影响,然而在训练有偏倚策略的数据时,可能会导致调整后的预测器在目标人群中并不公平,从而引起剩余不公平。 使用样本重新加权来估算和调整公平度量标准,以制定出更公平的机器学习算法。