基于技能匹配模型的劳动力市场性别流动性
本文研究了机器偏见和性别偏见,使用性别中性语言对 Google 翻译进行了实验,结果显示翻译的默认性别更偏向于男性,特别是在STEM领域中,这种偏见程度远超实际分布,因此需要对当前的统计翻译工具进行偏误纠正。
Sep, 2018
本文通过分析HuggingFace最流行的文本生成模型之一GPT-2在职业关联方面的偏见来检测大型语言模型的偏见,数据采集基于模板,同时探讨了性别、宗教、性取向、族裔、政治立场和大陆名字起源等因素的影响。
Feb, 2021
本文研究了在预训练语言模型中,关于职业性别分布如何反映在模型中,通过使用模板化句子结合特定职业性别分布数据,通过评估不同语言的模型得出结论。
Apr, 2023
通过分析工作推荐, 揭示大型语言模型中的人口统计偏见。研究发现LLMs存在与不同人口统计身份相关的偏见,如Mexican workers普遍倾向于低薪工作,女性倾向于秘书角色。这突出了在后续应用中量化LLMs偏见的重要性,以了解可能造成的伤害和不公平结果。
Aug, 2023
利用自然语言处理技术从职位描述中提取相关信息,包括解决训练数据的稀缺性、标注指南的缺乏以及从职位广告中提取有效信息的不足等挑战,最终通过引入抽取方法和多个数据集相辅相成的检索增强模型来提高整体性能,并将提取到的信息置于特定分类体系中。
Apr, 2024
本论文研究了大型语言模型在职业决策过程中与性别刻板印象相关的行为,通过多轮问答的方式,探究和量化了性别刻板印象在语言模型行为中的存在,并测试了三种模型的偏好。发现所有模型都存在类似于人类偏见的性别刻板印象,但偏好不同,且GPT-3.5-turbo和Llama2-70b-chat的不同偏好可能意味着当前的对齐方法对消除偏见不足够,甚至可能引入与传统性别刻板印象相矛盾的新偏见。
May, 2024
社会科学研究表明,具有表明特定种族或性别的姓名的候选人在就业实践中经常面临歧视。 similarly, 大型语言模型 (LLMs) 在各种应用中展示了种族和性别偏见。在本研究中,我们利用 GPT-3.5-Turbo 和 Llama 3-70B-Instruct 来模拟对具有320个姓氏强烈表示其种族和性别的候选人的招聘决策和薪水建议,覆盖了超过750,000个提示。我们的实证结果表明,这些模型偏好招聘白人女性名字听起来的候选人,并选择其他人口群体中的40个职业。此外,即使在具有相同资格的候选人中,薪水建议在不同子群体之间也会有高达5%的差异。与现实劳动力数据的比较显示,与美国劳动力市场特征不一致,凸显了对由LLMs驱动的系统的风险调查的必要性。
Jun, 2024
使用大型语言模型和迁移学习技术,本研究提出一种替代CAREER基础模型微调的方法,对下一个工作预测任务进行训练并展示了其在代表性调查数据上的预测性能优于传统计量模型、CAREER和具有情境学习的大型语言模型。
Jun, 2024
本研究探讨了大语言模型在简历筛选中可能存在的偏见,针对性别和种族等受保护属性的影响进行分析。采用文档检索框架和大量真实简历与职位描述数据,研究发现简历筛选存在显著偏向白人和女性,同时针对黑人的偏见尤为严重。这些发现揭示了广泛应用的人工智能工具在招聘中的不公正性,对公平性和技术政策具有重要影响。
Jul, 2024