量化文本到图像生成模型中的偏差
我们提出了一种通用方法,通过反事实推理来研究和量化任何文本到图像生成模型和任何提示的广泛偏见和偏差,并以语义概念的形式扩展了定量评分。
Dec, 2023
通过对 T2I(Text-to-Image)生成模型中的偏见进行研究调查,揭示了存在的社会偏见对少数群体的边缘化造成的影响,并指出在研究中存在的限制和未来的研究方向。
Apr, 2024
本文通过对两个流行的 T2I 模型(DALLE-v2 和 Stable Diffusion)进行广泛的自动化和人工评估实验,专注于反映出的性别、年龄、种族和地理位置之间的职业,人格特征和日常情况的生成图像,研究和量化常见的社会偏见。我们的研究结果表明,这些模型中存在严重的职业偏见和地理位置代表的日常情况。尽管可以通过增加提示本身的详细信息来缓解这些偏差,但提示缓解可能无法解决图像质量或模型在其他场景中的其他用途的差异。
Mar, 2023
通过 qualitatively 评估精确生成人脸、群体和指定数量对象的图片,我们不仅检查了多个文本到图像模型的性能,还进行了社会偏见分析。我们发现,容量更大的模型生成的图片质量更高,但同时这些模型也存在固有的性别或社会偏见,从而更全面地了解了它们的影响和局限性。
Jun, 2024
通过利用嵌入的语言模型的数学基础,我们的技术使得在模型偏见的作用下对输出的严重程度进行可扩展和便捷的控制,同时也允许通过精确的提示工程生成通常不真实的图像,我们还演示了将此操纵用于平衡生成类别频率的构造性应用。
Apr, 2024
本研究在探讨文本转图像生成模型领域的人类偏见及刻板印象问题,并为此提出了一种基于社会心理学中的隐性联系测验(Implicit Association Test)的文本到图像联系测试框架(Text-to-Image Association Test),通过实验验证模型在道德中性和民族刻板印象等各方面存在复杂的刻板印象行为。
Jun, 2023
我们在本文中提出了一种经验研究,介绍了一种用于文本到图像(T2I)生成模型的细致评估框架,应用于人类图像合成。我们的框架将评估分为两个不同的组别:第一组主要关注美学和真实性等图像质量,第二组则检验文本条件,包括概念覆盖和公平性。我们引入了一种创新的美学评分预测模型,评估生成图像的视觉吸引力,并首次提供了标记有生成人类图像低质量区域的数据集以便进行自动缺陷检测。我们对概念覆盖的探索考察了模型准确解释和渲染基于文本的概念的有效性,而公平性分析则揭示了模型输出中的偏见,特别关注性别、种族和年龄。尽管我们的研究以人类图像为基础,但这种双重面向的方法被设计成具有灵活性,可以应用于其他形式的图像生成,增强我们对生成模型的理解,并为下一代更复杂、具有上下文意识和伦理关注的生成模型铺平道路。我们将很快发布我们的代码,用于评估生成模型的数据以及标注有有缺陷区域的数据集。
Mar, 2024
本文的研究目的是探讨文本转图像模型(T2I)如何在生成图像时通过特定的单词体现出种族和性别的偏见,作者通过遮蔽语言模型计算各单词的影响得分,实验结果表明该方法能够用于识别生成图像中的社会刻板印象。
Jun, 2023
快速采用的文本到图像扩散模型强调了解决其偏见的迫切需求。本研究将公平性视为分布对齐问题,提出了两个主要技术贡献:(1)分布对齐损失,将生成的图像的特定特征引导向用户定义的目标分布;(2)扩散模型抽样过程的有偏直接微调,利用有偏梯度更有效地优化生成图像上定义的损失。实证结果显示,我们的方法显著降低了职业提示中的性别、种族及其交叉偏见。即使只微调五个软记号,性别偏见也显著降低。关键是,我们的方法支持超越绝对平等的多样观点公平,如同时控制年龄分布为 75%年轻和 25%年长的情况下消除性别和种族偏见。最后,我们的方法具有可扩展性:通过将这些提示包含在微调数据中,可以同时消除多个概念的偏见。我们希望我们的工作有助于文本到图像生成人工智能的社会调整。我们将共享代码和各种消除偏见的扩散模型适配器。
Nov, 2023