Jun, 2024

你得是医生,林”:对大型语言模型在就业推荐中基于姓名的偏见的研究

TL;DR社会科学研究表明,具有表明特定种族或性别的姓名的候选人在就业实践中经常面临歧视。 similarly, 大型语言模型 (LLMs) 在各种应用中展示了种族和性别偏见。在本研究中,我们利用 GPT-3.5-Turbo 和 Llama 3-70B-Instruct 来模拟对具有 320 个姓氏强烈表示其种族和性别的候选人的招聘决策和薪水建议,覆盖了超过 750,000 个提示。我们的实证结果表明,这些模型偏好招聘白人女性名字听起来的候选人,并选择其他人口群体中的 40 个职业。此外,即使在具有相同资格的候选人中,薪水建议在不同子群体之间也会有高达 5% 的差异。与现实劳动力数据的比较显示,与美国劳动力市场特征不一致,凸显了对由 LLMs 驱动的系统的风险调查的必要性。