基于信息论的公平感知特征选择度量
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
通过因果关系解释的虚假相关的条件互信息,我们提出了一种信息熵偏差测量技术,可以有效地识别基于特征的算法偏差,并设计了一种新颖的基于偏差正则化损失的去偏差框架和一种基于随机标签噪声的简单而有效的非监督去偏差技术。
Jan, 2022
本文提出了一种基于 Hilber-Schmidt 独立性准则的预处理步骤,用于自动识别敏感特征,以解决机器学习模型在高度影响社会的决策支持系统中不公平结果的问题。我们的实验结果证明了我们的假设,并表明文献中被认为是敏感的几个特征不一定产生不公平结果。
May, 2023
通过使用 Rawls 公正作为选择公平措施及取得平衡的基础,我们可以为 AI 系统中的公平 / 准确度取得权衡提供一个有原则的选择,从而集中关注最脆弱的群体和最有影响该群体的公平措施。
Jul, 2023
在普遍采用机器学习的医疗领域,自动化的社会偏见可能会加剧健康差距,我们探索了从特征选择的角度来解决算法公平性。传统的特征选择方法忽视了不同子群体之间这些因素的差异,而我们的公平特征选择方法考虑了所有人口群体的平等重要性。我们在三个公开可用的医疗数据集上测试了我们的方法,在这三个数据集上,我们观察到在公平性度量指标上的改善,同时平衡准确率仅有轻微下降。我们的方法解决了公平机器学习背景下的分配和程序公正性问题。
Mar, 2024
本文介绍了一种使用因果干预公平性范例,通过在数据管理的集成组件中考虑公平性来识别特征以提高预测质量而不添加偏差的方法,提出了一种使用条件独立性检测的方法来确定确保干预公平的特征子集,并通过现实世界的数据集进行了详细的实证评估,证明了方法的有效性和效率。
Jun, 2020
研究发现,对于机器学习算法存在偏见的情况,使用局部信息分解技术可以帮助我们从信息论的角度去 quantify 每一项特征对于已观察到的不平等问题的潜在贡献较好地解释偏见的来源。
Jun, 2022
特征选择是处理高维数据时的关键步骤,本文提出了一种基于 Jensen Shannon 散度的信息论方法来衡量算法的稳定性,该方法能够适用于不同的算法输出结果,并具备校正变化、上下界和确定性选择条件等优良特性。通过在控制条件下生成的数据和与其他流行度量标准的比较,验证了该稳定性度量标准的实用性和优势。在实际问题中,该方法对于食物质量评估具有潜在的稳定性评估能力。
Feb, 2024
研究如何通过包含公平性在目标函数中来解决机器学习中涉及敏感特征的不公平性问题。提出了基于新的公平分类框架的新型公平回归和降维方法,并通过使用 Hilbert Schmidt 独立性准则作为公平项,实现了线性和非线性问题的评估。
Oct, 2017