干预优先于预测:重新构建精算风险评估的道德辩论
本文提出了通过从可允许的训练数据中去除保护变量的所有信息来消除预测模型偏见的方法,并将其应用于罪犯记录的数据集以产生种族中立的再逮捕预测方案,证明了将种族作为协变量省略的方式仍导致存在种族差异,并且证明了应用我们提出的方法可以将这些数据中的种族差异从预测中去除,并对预测准确性的影响最小。
Oct, 2016
本文提出了一种概率算法偏见的方法,通过消除模型将要训练的数据中所有关于保护变量的信息来消除模型中的偏见。我们将我们的方法应用于一个关于罪犯在被判决时的犯罪历史数据集,并证明了一种创建 “种族中立” 模型的常见方法 - 即忽略种族作为协变量 - 仍然会导致种族差异预测。最后,我们证明了采用我们提出的方法可以最小限度地对预测精度产生影响,同时消除预测中的种族差异。
Mar, 2017
机器学习在伦理学、保险定价和风险选择方面面临着人们日益关注的议题,本研究探讨了间接性歧视的风险,并提出了一种基于线性代数的创新方法来降低间接性歧视的风险,以提高保险的公平性和性能表现。
Jul, 2023
本文提出了针对算法风险评估工具的反事实度量方法,并使用双重稳健估计方法估算反事实度量。作者提出的度量方法更适合在决策上下文中使用;因此,纵观标准公平度量和反事实度量,两者仅在特定条件下才能同时成立,本文提供了理论结果和实证结果以证明他们的方法优于标准做法。
Aug, 2019
本文使用机器学习系统支持决策制定在医疗保健中的问答涉及使用电子医疗记录中的观察性数据中隐含的偏见,进而进一步发展了组公平性标准,以在个体层面上扩展增益计数事实公正标准,探讨扩增的标准是否可以应用于使用观测性电子健康记录数据的病人长住和死亡的公平模型的开发。通过一个假设因果图的变分自动编码器来执行反事实推理,提供了一种在学习生成模型的背景下,在公平维护与预测性能下降之间权衡的方法。
Jul, 2019
机器学习算法在实际应用中发展日益复杂,特别是在医学和工程等高风险应用中使用机器学习技术时,预测模型的失败概率至关重要。我们提出了风险评估任务,并侧重于回归算法和计算模型预测的真实标签在一个定义好的区间内的概率。我们通过使用符合预测方法来解决风险评估问题,该方法提供了一定概率内包含真实标签的预测区间。通过该覆盖性质,我们证明了所提方法的近似失败概率是保守的,不低于 ML 算法的真实失败概率。我们进行了大量实验证明了所提方法在存在和不存在协变量转移的问题中的准确性,并重点研究了不同建模方案、数据集大小和符合预测方法学。
Oct, 2023
本文提出了一个利用因果推断工具来建立公正性模型的框架,以避免机器学习在保险、贷款、雇佣和预测执法等领域的不公正决策,避免造成基于不公正数据的歧视性做法,以法学院成功的公平预测为实际问题进行了实证研究。
Mar, 2017
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。
Jul, 2020
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018