ACLJun, 2024

大型语言模型在雇佣决策中是否基于种族、民族和性别进行歧视?

TL;DR我们研究大型语言模型(LLMs)是否在招聘决策中表现出基于种族和性别的姓名歧视,类似社会科学中的经典研究结果(Bertrand 和 Mullainathan,2004 年)。通过为 LLMs 设计一系列模板提示,要求其给被命名的求职者写一封邮件,告知其招聘决定,我们通过操纵求职者的名字,衡量 LLLMS 生成接受或拒绝邮件的概率如何受到被认知的种族、民族和性别的影响。我们发现在许多情况下,LLLMS 的招聘决策更有可能倾向于白人申请者而不是西班牙裔申请者。总体而言,接受率最高和最低的群体分别是男性白人姓名和男性西班牙裔姓名。然而,在不同的模板设置下,各群体的接受率有所不同,这表明 LLLMS 对种族和性别的敏感性可能是独特的,并且受到模板提示的影响。