印度的职业妇女与种姓:使用特征归因研究社会劣势
研究证实了语言模型技能表示中存在性别隔离问题,同时评估其在模拟数据应用中性别隔离现象的传播困难,并提出了如何评估和比较技能匹配效果以及性别隔离风险的方法。
Jul, 2023
大型语言模型在算法招聘中的使用引发了与受保护属性(如性别、种族和孕期状态)的偏见问题。本研究基于开源的大型语言模型,在匹配简历与职位类别以及总结简历的两个任务上评估性别、种族、孕期状态和政治倾向的偏见。结果显示大型语言模型在种族和性别方面具有鲁棒性,但在孕期状态和政治倾向方面表现不同,通过对比输入解码方法揭示了潜在的偏见源。
Oct, 2023
IndiBias是一个专门为评估印度社会偏见而设计的全面基准数据集,它将现有的CrowS-Pairs数据集过滤和翻译成印地语,并利用ChatGPT和InstructGPT等大型语言模型增加了印度独特的社会偏见和刻板印象维度,同时还针对交叉偏见构建了相应的资源。该数据集包含800个过滤后的句子和用于不同人口统计的偏见测量元组,提供英语和印地语两种语言的版本,规模可与现有的基准数据集相媲美。通过使用IndiBias,我们比较了十种不同的语言模型在多个偏见测量指标上的表现,发现语言模型在大多数交叉群体中表现出更多偏见。
Mar, 2024
研究通过潜在类别分析创新方法,量化用户定义群体间跨领域交叉差异,以评估公平问题,并发现少数族裔群体之间存在显著差异,强调在实际AI应用中需要有针对性的干预措施,同时展示了该方法对机器学习公平性的洞见。
May, 2024
本研究针对Bangla语言中存在的情感与性别之间错综复杂的社会关系,对低资源语言中封闭和开源大语言模型的性别情感归属进行了分析研究,揭示了存在于Bangla中情感性别偏见的存在并展示了情感归属如何基于性别角色选择而改变,并公开提供了所有相关资源以支持Bangla自然语言处理的未来研究。
Jul, 2024
本研究解决了传统方法在性别工资差异分解中因遗漏变量偏差而导致的不足,提出了一种新的利用基础模型的方法。通过构建定制的基础模型以全面处理劳动历史数据,研究发现,历史因素在性别工资差距中发挥了更大作用,能够有效降低遗漏变量偏差。
Sep, 2024