算法招聘中的偏见缓解:评估主张和做法
该论文批判性地研究了三种主流的自动化招聘系统 (AHSs) 在英国的使用情况,并使用公开可用的文件描述了它们的设计、验证和审核方式,同时强调了假设和局限性,最终将这些结果置于英国的社会法律背景之下,提出了建立旨在满足欧盟法律标准、明确能够缓解歧视问题的 AHS 的挑战。
Sep, 2019
本文讨论了 Local Law 144 对于自动决策工具中的偏见检测指标不足的问题,并提出了可能的替代指标。通过对一些理论例子和实际数据的对比,我们发现新的指标更能准确地检测出偏见。
Feb, 2023
多领域调查为从业人员和研究者提供一个均衡和综合的覆盖,涵盖算法招聘、偏见、度量、缓解策略、数据集和法律方面,旨在支持对这项技术的情境化理解与治理,并提供未来工作的建议,以确保所有利益相关方共享利益。
Sep, 2023
大型语言模型在算法招聘中的使用引发了与受保护属性(如性别、种族和孕期状态)的偏见问题。本研究基于开源的大型语言模型,在匹配简历与职位类别以及总结简历的两个任务上评估性别、种族、孕期状态和政治倾向的偏见。结果显示大型语言模型在种族和性别方面具有鲁棒性,但在孕期状态和政治倾向方面表现不同,通过对比输入解码方法揭示了潜在的偏见源。
Oct, 2023
在评估过程中,存在与个体的社会显著属性相关的偏见,我们将评估过程视为将个体对任务的真实效用分布转化为观测分布的转换,并将其建模为在信息约束下的损失最小化问题的解决方案。我们的模型有两个参数,被确定为导致偏见的因素:信息约束中的资源-信息权衡参数和损失函数中的风险规避参数。我们表征了从我们的模型中出现的分布,并研究了参数对观测分布的影响。我们通过拟合真实世界数据集来验证我们的模型,并使用它来研究在下游选择任务中干预的效果。这些结果有助于理解评估过程中偏见的出现,并提供指导部署干预措施以减轻偏见的工具。
Oct, 2023
机器学习和数据驱动算法在决策制定领域的广泛应用已逐年增加,但相关负面影响也随之日益严重。负面数据偏差是其中之一,会对特定群体造成有害后果。为解决偏差带来的负面后果,必须首先认识到其存在,并找到一种能够理解和量化的方法。本文的主要贡献是:(1)提出了一个定义和高效量化数据集相对于保护群体偏差水平的通用算法框架;(2)定义了一种新的偏差度量方法。我们的实验结果在九个公开数据集上得到验证,并进行了理论分析,从而为该问题提供了新的见解。基于我们的方法,我们还推导出一种可能对政策制定者有用的偏差缓解算法。
May, 2024