Sep, 2024

评估大型语言模型中的性别、种族和年龄偏见:职业和犯罪场景的比较分析

TL;DR本研究探讨了大型语言模型(LLMs)中存在的偏见问题,影响其可用性和公平性。通过分析2024年发布的四种领先LLMs在职业和犯罪场景中的性别、种族和年龄偏见,发现这些模型在职业场景中对女性角色的描绘偏差达37%,而在犯罪场景中性别、种族和年龄的偏差分别为54%、28%和17%。研究结果强调了当前偏见缓解技术的局限性,呼吁寻找更有效的方法。