模型无关性别去偏见图像描述
本研究介绍一种称为 Equalizer 的新方法,它可以确保在场景中遮挡性别证据时具有平等的性别概率,并在存在性别证据时具有自信的预测,以减轻描述数据集中不想要的偏见的影响。此模型在描述含人物的图像时预测其性别的错误率低于以前的工作,并更接近包括女性句子和包括男性句子的语句的实际比率。
Jul, 2018
本文介绍一种新的 Equalizer 模型,该模型生成基于个体外貌或图像环境的性别特定字幕单词,并使用 “外貌混淆损失” 和 “自信损失” 缓解了描述数据集中不必要的偏差影响,从而实现了目标当性别信息模糊时,模型需要看人物而不是使用语境线索来制定性别特定的预测。
Mar, 2018
通过提出一个新颖的数据处理流程来纠正常用公平度量工具 (Bias@K) 存在偏见且不精确的问题。该流程通过提供一组性别平衡的对比集来扩充 COCO Captions 数据集,我们基于此数据集证明了在多个基于 CLIP 的模型中偏差的存在,表明了性别与图像背景之间毫无意义的相关性。最终,我们基于这些结果证明了我们的方法可以提高 Bias@K 的可靠度,从而对相关社会科学进行更准确的预测。
May, 2023
本论文通过系统的调研,研究发现了预训练模型存在性别偏见的问题,探讨了预训练模型在图像字幕生成任务中的公平性影响,并提出了一种针对这种问题的解决方案:结合 n-gram 匹配和预训练模型评估度量,以减少性别偏见的影响。
May, 2023
本文提供了对图像字幕社会偏见放大的研究,通过对传统和现代图像字幕模型的评估和对每个指标的优缺点进行了全面的研究,提出了用于研究字幕偏见放大的 LIC 度量标准,并发现仅关注受保护属性预测的偏见缓解模型意外放大了偏见。
Mar, 2022
本文研究滥用语言检测模型的偏见问题,通过使用不同的滥用语言数据集和预训练词嵌入和模型架构,分析性别偏见并尝试了三种减轻 偏见的方法:去偏向词嵌入、性别交换数据扩充以及使用更大的语料库进行微调。这些方法有效的降低了性别偏见 90-98%,并且可以扩展到解决其他情况下的偏见问题。
Aug, 2018
通过 Lagrange 弛度算法,该研究加入语料库级别的限制条件来解决多标签物体分类和视觉语义角色标记中出现的性别偏见问题,成功地将性别偏见幅度下降了 47.5% 和 40.5%,而识别任务的性能损失却很小。
Jul, 2017