Sep, 2024

揭示大型语言模型中的性别偏见:以高等教育中的教师评估为例

TL;DR本研究针对大型语言模型在高等教育中生成的教师评估中存在的性别偏见进行调查,特别是以GPT-4在六个学科中的评估为例。通过应用综合分析框架,研究发现反映社会刻板印象的性别关联语言模式,特别是女性教师使用与亲和力和支持相关的词汇,而男性教师则更多使用与娱乐相关的词汇,表明大型语言模型生成的文本反映了现有的性别偏见。