通过无监督预训练学习的图像表示包含类人偏差
本文研究 Self-Supervised Learning (SSL) 方法在使用 ImageNet 数据集进行训练时是否存在社会偏见的问题,并探讨了不同类型的 SSL 模型与所包含偏见的关系,同时认为在模型选择过程中可以减少社会偏见的数量,同时保持高性能。
Mar, 2022
图像模型的嵌入空间已经被证明可以编码一系列的社会偏见,该研究调查了对于视觉转换器(ViT)中出现这些偏见的具体因素,并测量了训练数据、模型架构和训练目标对 ViTs 学习表示中的社会偏见的影响。研究结果表明,基于反事实增强训练的扩散式图像编辑可以缓解偏见,但并不能完全消除;而且,相较于小模型,我们发现大模型的偏见较少,并且使用辨别目标进行训练的模型比使用生成目标进行训练的模型偏见较少。此外,我们观察到学习到的社会偏见存在不一致性,令人惊讶的是,当使用不同的自监督目标在相同数据集上训练时,ViTs 可能表现出相反的偏见。我们的发现揭示了导致社会偏见出现的因素,并提出了基于模型设计选择可以实现相当大程度的公平改善。
Aug, 2023
通过自监督学习方法,针对各种来源、无需数据预处理的数十亿张随机图片进行训练,生成可以识别物体、风格、地理位置等信息的模型,并对其公平性、偏差等进行了多角度验证,证明其表现优异、不会对数据进行歧视和危害。
Feb, 2022
利用面部表情识别 (FER) 作为领域,通过分析性别人口的代表性和刻板性两种偏见,研究了数据集中的人口偏见对机器学习模型的传播情况。结果显示,代表性偏见对模型的影响较弱,而刻板性偏见具有显著的影响,主要集中在有偏见的类别上,尽管它也会影响无偏见类别的预测。这些结果强调了需要区分不同类型偏见的偏见分析,这对于有效的偏见缓解策略的开发至关重要。
Jun, 2024
本文提出了一种无监督的方法,通过倾向匹配和对抗性学习来降低混淆,并着重于展现隐含的性别偏见,并揭示了针对女性政治家的有偏见评论包含各种批评,而针对其他女性公众人物的评论则集中于外貌和性感方面。最终,我们的工作提供了一种在各个领域捕捉微妙偏见的方法,而无需依赖主观的人类判断。
Apr, 2020
本文通过一种新的方法,将人类的视觉分类器的偏见转移到了机器的视觉识别系统中,在很少的训练数据情况下,结果表明,将这种人类的偏见转移给机器可以帮助目标识别系统更好地推广和表现。
Oct, 2014
近年来,机器学习模型,特别是基于 Transformer 的预训练模型,对自然语言处理和计算机视觉领域产生了革命性的进展。然而,研究人员发现这些模型可能无意中捕捉和强化其训练数据集中存在的社会偏见,导致资源分配不平等和特定社会群体的不公平代表。解决这些偏见并确保人工智能系统的公平性已成为机器学习界关注的焦点。最近介绍的预训练视觉语言模型在新兴的多模态领域引起了人们对其中的社会偏见的关注。尽管视觉语言模型易受社会偏差影响,但对比自然语言处理和计算机视觉领域中广泛讨论的偏见而言,对此了解有限。本调查旨在向研究人员提供关于 NLP、CV 和 VL 领域中预训练模型社会偏见研究的高层次见解。通过检查这些观点,本调查旨在为单模态和多模态环境下如何应对和减轻社会偏见提供有价值的指导。本文所提供的结果和建议可使机器学习界受益,并促进在各种应用和研究努力中开发更加公平和无偏的人工智能模型。
Sep, 2023
我们研究了在视觉和语言模型训练中使用大型未筛选数据集的不公平表现,以及如何应对这个问题,研究发现社会偏见在图像生成、图像描述和图像文本嵌入等视觉语言任务中都是一个持续而普遍的问题。
Apr, 2023
通过引入基于认知科学文献的方法工具,本研究介绍了一项基准测试来评估人工模型的偏差,并使用这个基准测试评估了 CLIP 模型。我们发现,虽然单词嵌入的图像会扭曲 CLIP 模型在不同类别级别上的图像分类,但这种影响不依赖于图像和嵌入单词之间的语义关系,这表明 CLIP 视觉处理中的语义词表示与图像表示不共享。
Jan, 2022