通过分析直接歧视的法律条件和技术方法,本文探讨了算法决策中内在直接歧视的识别和应用。
Apr, 2024
本文研究了评估算法决策的不平等影响面临的根本性挑战:保护类成员在数据中通常不可观察。研究者考虑使用附加数据集来构建模型,从而预测代理变量(如姓氏和地理位置)来确定受保护类别的成员身份,提供了计算和可视化这些集合的算法和统计工具。通过借助美国人口普查数据和两个真实案例(抵押贷款和个性化药物剂量),展示了这种方法可以实现可靠和稳健的不平等影响评估。
Jun, 2019
本文介绍一种使用多任务神经网络架构进行索赔预测的技术解决方案,该模型能够使用只有部分受保护特征信息的数据进行训练,并且生成的价格不受间接歧视影响,且其性能在有部分缺失政策持有人信息的情况下具有明显的优势。
Jul, 2022
介绍数据科学社区应该关注机器学习和数据挖掘过程中潜在的歧视问题,探讨歧视的测量和开发过程中如何改进以减少系统潜在的歧视性,并呼吁数据科学家应该有意识地建模和减少歧视结果的产生。
Jul, 2019
本研究提出了一种针对监督学习中指定敏感属性的歧视判据,结合 FICO 信用评分案例研究来说明该判据是如何通过调整学习预测器的方式达到消除歧视的目的。同时,本文研究了基于被遗忘的测试方式定义和识别偏见的固有限制。
Oct, 2016
本文研究在没有标记受保护组的数据集的情况下,通过改善代理组的公平度量来提高真实敏感组的公平度,并在基准和实际数据集上进行了实验。 然而,该策略的有效性可能取决于公平度量的选择以及代理组在约束模型参数方面与真实受保护组的对齐程度。
Jun, 2018
机器学习在伦理学、保险定价和风险选择方面面临着人们日益关注的议题,本研究探讨了间接性歧视的风险,并提出了一种基于线性代数的创新方法来降低间接性歧视的风险,以提高保险的公平性和性能表现。
Jul, 2023
本文综述了关于如何消除历史数据中偏见和歧视对预测模型造成的影响的研究,包括综述了各种可用于测量数据中歧视的方法和评估反歧视预测模型性能的措施,并提出了非歧视性预测建模的实践建议。
Oct, 2015
介绍了一种新的不公平性概念 —— 不同的不公平待遇,并提出了针对基于决策边界分类器的不同不公平待遇的直观度量方法,这些方法可以轻松地作为凸 - 凹约束包含在公式中。实验表明,该方法在避免不同不公平待遇方面是有效的。
本研究旨在解决群体成员身份不可用或不被允许使用时,非披露性地收集与敏感群体平衡的数据样本的问题,并通过采用公平性流程视角和使用少量标记数据训练代理函数来实现。
Jun, 2023