公平风险度量
本文研究学习分类器的公平性约束问题并提出了三种解决方案,分别是将两个现有的公平性度量关联到成本敏感风险,显示了对于成本敏感分类和公平性度量的最优分类器是类概率函数的实例相关阈值,并展示了准确性和公平性之间的权衡是通过目标和敏感特征的类概率之间的一致性来确定的。支撑我们分析的是一个通用框架,将具有公平要求的学习问题建模为两种统计风险差异的最小化问题。
May, 2017
介绍了一种基于经验风险最小化的算法,通过将公平性约束条件融入到学习问题中,实现敏感变量不会不公平地影响分类器的结果,得出了公平性和风险的界限,对核方法进行了特定说明,发现公平性要求意味着正交性约束,此约束可轻松添加到这些方法中,特别是对于线性模型,约束转化为一个简单的数据预处理步骤,实验证明该算法具有实用性,表现优于最先进的方法。
Feb, 2018
本文研究了含有噪声敏感特征的公平机器学习算法,表明当使用均值差异分数作为公平性量度标准时,只需通过调整所需的公平容错率即可仍然学习出公平分类器,该容错率可以通过现有噪声率估计器进行估计,并在两个敏感特征审查案例研究中得到实证有效性。
Jan, 2019
本文提出了一种处理包含连续敏感属性的回归算法中避免敏感信息不公平影响的公平经验风险最小化方法,并将其泛化到标准有监督学习的整个情境中,该方法在进行知名的平等概念的实证风险最小化情境时可以减少公平度量;同时该文构建了一种可以针对内核方法进行共性公平估计的方法,并通过对公共数据集和来自五千名学生的新数据集的实验结果显示其实现了精度和公平要求之间的有效平衡。
Jan, 2019
本文提出了一种基于 Hilber-Schmidt 独立性准则的预处理步骤,用于自动识别敏感特征,以解决机器学习模型在高度影响社会的决策支持系统中不公平结果的问题。我们的实验结果证明了我们的假设,并表明文献中被认为是敏感的几个特征不一定产生不公平结果。
May, 2023
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
针对敏感应用如医疗保健或刑事司法等领域,本研究旨在解决在预测模型中公平性与准确性的平衡问题,并提出,应该在数据的背景下评估预测结果的公平性,并通过数据收集来解决样本大小或未测量的预测变量所带来的不公平性,同时通过将成本基准的歧视度量分解为偏差,方差和噪音,并提出旨在估计和减少每个术语的行动。最后,本文以收入,死亡率和审查等领域的预测为案例研究,确认这种分析方法的价值,并发现数据收集通常是减少歧视而不牺牲准确性的手段。
May, 2018
研究如何通过包含公平性在目标函数中来解决机器学习中涉及敏感特征的不公平性问题。提出了基于新的公平分类框架的新型公平回归和降维方法,并通过使用 Hilbert Schmidt 独立性准则作为公平项,实现了线性和非线性问题的评估。
Oct, 2017