NLVR2 视觉偏差分析
通过构建统一的框架系统评估大规模视觉语言模型中的性别职业偏见,我们在不同输入输出模态下的基准测试中观察到不同的偏见程度和方向,希望我们的工作能指导未来改进视觉语言模型以学习社会上没有偏见的表示方式。
Feb, 2024
通过引入 VLBiasBench 数据集和进行广泛的评估,我们对大型视觉语言模型中的偏见进行了全面研究,并揭示了一些新的见解。
Jun, 2024
近年来,机器学习模型,特别是基于 Transformer 的预训练模型,对自然语言处理和计算机视觉领域产生了革命性的进展。然而,研究人员发现这些模型可能无意中捕捉和强化其训练数据集中存在的社会偏见,导致资源分配不平等和特定社会群体的不公平代表。解决这些偏见并确保人工智能系统的公平性已成为机器学习界关注的焦点。最近介绍的预训练视觉语言模型在新兴的多模态领域引起了人们对其中的社会偏见的关注。尽管视觉语言模型易受社会偏差影响,但对比自然语言处理和计算机视觉领域中广泛讨论的偏见而言,对此了解有限。本调查旨在向研究人员提供关于 NLP、CV 和 VL 领域中预训练模型社会偏见研究的高层次见解。通过检查这些观点,本调查旨在为单模态和多模态环境下如何应对和减轻社会偏见提供有价值的指导。本文所提供的结果和建议可使机器学习界受益,并促进在各种应用和研究努力中开发更加公平和无偏的人工智能模型。
Sep, 2023
本研究针对 Vision-Language Pre-training(VLP)模型的社会偏见问题,提出了一种基于反事实的偏见测量方法 CounterBias、构建了一个包含 24K 图像 - 文本对的新颖 VL-Bias 数据集并在其中观察到了 VLP 模型中普遍存在的显著性别偏见,提出了最小化 VLP 去偏差的思路 FairVLP。
Jul, 2022
本文基于德文语料库的数据集,在多个体系结构中通过词嵌入联想测试(WEAT)分析了预先训练的德语语言模型的偏见,发现这些语言模型存在实质性的概念、种族和性别偏见,并且在同伴评审数据的微调中,偏见在概念和种族轴上有显着变化。
Sep, 2022
这篇论文介绍了 GenderBias-VL 基准测试,通过使用反事实视觉问题评估 LVLMs 中与职业相关的性别偏见,以个体公平标准为基准。该基准测试包含 34,581 个视觉问题反事实对,涵盖了 177 个职业,发现现有的 LVLMs 普遍存在性别偏见。
Jun, 2024
本文探讨了深度学习模型在自然语言推理方面存在数据偏见的现象,并提出了数据级和模型级去偏见的方法,实验表明采用正交性方法可以更好地去偏见且保持高准确率。
May, 2020
本文旨在通过重新划分环境和特征替换的实验,探讨 Vision-and-Language Navigation 模型中的环境偏差问题。我们发现,ResNet 特征所传递的底层视觉外观直接影响了代理模型,进而导致环境偏差问题。根据这一发现,我们探索了几种包含较少底层视觉信息的语义表示形式,从而使使用这些特征的代理能够更好地推广到未见过的测试环境中。我们的探索性语义特征无需修改基线代理模型及其训练方式,在多个数据集上显著降低了已看和未见之间的性能差距,并取得了与先前的最先进模型具有竞争力的未见结果。
May, 2020
通过检测视觉语言模型(VLMs)上的隐藏、隐含性关联,系统地探索多元的输入和输出模式,揭示存在于九个偏见维度上的细微和极端偏见,从而填补了现有方法的不足,发现通常不被现有方法识别到的隐秘和极端偏见,同时公开了关联数据集(Dora)。
Jul, 2024
本文提出了一个名为 MMBias 的基准数据集,用于评估自我监督多模态模型中的偏差,并介绍了一种旨在缓解偏差的去偏置方法。
Mar, 2023