隐性偏见下的选择:交叉约束的优势
这篇论文探讨了在自然语言处理模型中的偏差对模型的影响,提出了针对多个保护属性进行评估的自动去偏差技术,并研究了一个新的有偏约束模型及其扩展版本的迭代零空间投影技术。
Sep, 2021
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
本文针对交织系统对包括种族、性别、性取向、阶级和残疾等方面影响个体的观点,提出了一种皮尔逊贝塔贝叶斯概率建模方法,来对多重受保护属性的公正性进行可靠、高效的估算,以及模型建立和公正性测量的实用性解决方案。
Nov, 2018
AI 系统在特定人群中产生不公平结果,需要理解特定敏感属性上的偏见。本文通过发现交叉敏感属性下多样化的高偏见子群体,提出了一种基于偏见引导的生成网络(BGGN)。通过将每个偏见值视为奖励,BGGN 可以高效地生成高偏见的交叉敏感属性。实验证明 BGGN 在现实世界的文本和图像数据集上具有多样性且高效的发现能力。进一步评估生成的未见但可能存在不公平的交叉敏感属性,我们将其建模为提示,并使用现代生成型人工智能生成新的文本和图像。频繁生成偏见数据的结果为发现流行现代生成型人工智能系统中潜在的不公平提供了新的见解。警告:本文包含具有冒犯性的生成示例。
May, 2024
提出了一种灵活的审计框架 Conditional Bias Scan (CBS),以检测分类模型中的交叉偏见,该方法可以检测到先前未发现的交叉和上下文相关偏见,并且相对于仅审计子组公平性的类似方法具有更高的偏见检测能力。
Jun, 2023
本文提出了一种新的框架 ——α 交叉公平(Intersectional Fairness)框架,来解决交叉敏感群体的分类问题,提出了一种新的公平度量,并在实验中验证了该框架的有效性以及一些算法的有效性。
May, 2023
本研究提出了机器学习和人工智能系统中的公平性定义,并受到交叉性别、种族、性取向、阶级和残疾等影响因素的启发,通过保护属性子集合理分配资源,提供合理保护算法,同时在人口普查数据和 COMPAS 犯罪再犯数据集上进行案例研究。
Jul, 2018
本研究旨在通过对核回归和特别是决策树回归中预期子人群的结果进行限制,以提高机器学习模型的公平性;该解决方案不影响决策树的复杂度顺序,并且容易集成到训练后的模型中。
Nov, 2018
使用机器学习在信用建模中的新数据来源引发了涉及受保护特征(例如种族、性别、年龄)或其他社会经济与人口统计数据的不公平决策的担忧。本文通过微金融背景展示了此类算法偏见的影响,并综合干预性的视角研究了以性别、年龄、婚姻状况、单亲状态和子女数量为定义的不同群体之间的信用分配不公平问题。我们发现在多元社会中应用自动化决策系统时,交叉性别、年龄和家庭状况的身份会影响信用分配模式,而机器学习技术对社会公平与不公平视而不见。因此,更全面地考虑交叉身份可以增强算法公平性的视角,更真实地推动平等结果,并提供更公正的前进路径。同时,我们发现除了受法律保护的特征外,像单亲状态和子女数量这样的敏感属性也可能导致不平衡的伤害。本研究对金融服务行业的影响进行了讨论。
Aug, 2023