运动如女孩!语言和视觉中的体育性别偏见
本研究使用基于语言模型的方法对男、女运动员在网球赛后采访中受到的问题进行量化,发现记者向男性选手提出的问题通常更加关注比赛本身,而向女性选手提问的问题则更多涉及到其他因素,如性别歧视的情况取决于问题的类型、比赛结果或选手等级等不同因素。
Jul, 2016
通过构建统一的框架系统评估大规模视觉语言模型中的性别职业偏见,我们在不同输入输出模态下的基准测试中观察到不同的偏见程度和方向,希望我们的工作能指导未来改进视觉语言模型以学习社会上没有偏见的表示方式。
Feb, 2024
本研究介绍了 VisoGender,这是一个用于基准测试视觉语言模型的性别偏见的新数据集。我们专注于与职业相关的性别偏见,并强调每个图像都与包含场景中主体和对象的代词关系的标题相关联。
Jun, 2023
本文调查了 304 篇关于自然语言处理中的性别偏见的论文,分析了社会科学中性别及其类别的定义,并将其与自然语言处理中性别偏见的正式定义联系起来,概述了应用于性别偏见研究的词汇和数据集,并比较和对比了检测和缓解性别偏见的方法。我们发现性别偏见研究存在四个核心限制,提出了解决这些限制的建议作为未来研究的指南。
Dec, 2021
通过查询大规模视觉语言模型,我们观察到在输入图像中人物的性别和种族上存在显著差异,针对此问题我们提出了新的数据集 PAIRS (每日场景的平行图像),并研究了大规模视觉语言模型中的性别和种族偏见。
Feb, 2024
该研究的主要贡献是,通过收集、注释和增强相关句子以促进检测英文文本中的性别偏见,公开提供已标记的数据集和详尽的词汇表,其中所包含的偏见子类型包括:通用他,通用她,明确标记性别和性别新词。同时,利用词嵌入模型进一步增强了所收集的词汇表。
Jan, 2022
这篇论文介绍了 GenderBias-VL 基准测试,通过使用反事实视觉问题评估 LVLMs 中与职业相关的性别偏见,以个体公平标准为基准。该基准测试包含 34,581 个视觉问题反事实对,涵盖了 177 个职业,发现现有的 LVLMs 普遍存在性别偏见。
Jun, 2024
该研究针对视觉语言模型中的性别偏见进行了研究,识别出对象幻觉是视觉语言模型中性别偏见的本质。为了缓解性别偏见,提出了一个名为 GAMA 的生成框架,通过生成全面但模糊性别的叙述来防止过早集中在局部图像特征上,并在回答推理阶段通过综合图像、生成的叙述和任务特定的问题提示来重新思考性别属性和答案。实验结果表明,GAMA 具备去偏见和泛化能力。
May, 2024
研究调查了两个自然语言处理数据集,发现当语言具有性别特征时,特别是具有男性特征时,就会出现性别偏见,为此提出了一个名为 AVA 的新词典,旨在涵盖性别化语言与 VA 语言之间的模糊关联。
Apr, 2023