AI的表征机制:南亚文本图像模型的社区中心研究
文化和人工智能之间存在双向关系,因此需要更全面地考虑文化的复杂性,包括主观性、可扩展性、上下文性和时间性,以便更好地捕捉文化的复杂性和解决人工智能中的偏见问题。
Nov, 2022
本文通过对两个流行的T2I模型(DALLE-v2和Stable Diffusion)进行广泛的自动化和人工评估实验,专注于反映出的性别、年龄、种族和地理位置之间的职业,人格特征和日常情况的生成图像,研究和量化常见的社会偏见。我们的研究结果表明,这些模型中存在严重的职业偏见和地理位置代表的日常情况。尽管可以通过增加提示本身的详细信息来缓解这些偏差,但提示缓解可能无法解决图像质量或模型在其他场景中的其他用途的差异。
Mar, 2023
这篇研究论文探讨了人工智能生成图像的创作方式以及弊端,如训练数据的偏见、合成数据常态化可能导致未来图像生成系统的质量下降,以及文本生成图像对人们想象力、抱负和发展的潜在长期影响。
Jun, 2023
文本到图像(T2I)生成中的一个挑战是训练数据中存在的文化差距意外反映,当输入文本的文化要素在训练集中很少收集时,这意味着生成的图像质量的不一致性;为了弥合差距,我们提出了一个全面评估标准的具有挑战性的跨文化(C3)基准,用于评估模型生成跨文化图像的适应性;通过分析C3基准上 Stable Diffusion 模型生成的有缺陷图像,我们发现模型常常无法生成某些文化对象;因此,我们提出一种新颖的多模态度量,考虑了对象与文本的对齐,用于筛选目标文化中的微调数据,以改进跨文化生成的T2I模型;实验结果表明,我们的多模态度量在C3基准上提供了比现有度量更强的数据选择性能,其中对象和文本的对齐至关重要;我们发布了基准,数据,代码和生成的图像,以促进未来在文化多样化的T2I生成方面的研究。
Jul, 2023
通过对CulText2I数据集进行内在评估、外在评估和人类评估,探索TTI模型中嵌入的文化知觉,揭示了模型的文化意识、文化差异和跨文化应用的潜力。
Oct, 2023
迫切需要将不同文化群体的视角纳入人工智能发展中。我们提出了一个新颖的概念框架,旨在通过独立和相互依赖的文化自我和环境模型来扩大、重新构想和重新建立人工智能的主流愿景。两项调查研究支持该框架,并初步证明人们在想象理想的人工智能时应用了他们的文化模型。与欧美受访者相比,中国受访者认为控制人工智能的重要性较低,与人工智能建立联系的重要性较高,并更倾向于喜欢具有影响能力的人工智能。与欧美受访者和中国受访者相比,非洲裔美国受访者的发现既像欧美受访者又像中国受访者。我们讨论了研究的局限性和未来方向,并强调了开发对世界人口更广泛服务的文化响应和相关人工智能的重要性。
Mar, 2024
通过对T2I(Text-to-Image)生成模型中的偏见进行研究调查,揭示了存在的社会偏见对少数群体的边缘化造成的影响,并指出在研究中存在的限制和未来的研究方向。
Apr, 2024
本文批判性讨论了生成型人工智能(GenAI)如何在非西方社会中强加西方意识形态,通过其固有偏见在教育中持续推行数字新殖民主义,并提出了缓解这些影响的策略。我们的讨论表明,GenAI可以通过生成主要涉及西方学生文化参考和例子的内容来培育文化帝国主义,从而使非西方学生感到疏离。此外,GenAI对西方语言的主要使用可能会边缘化非主导语言,使其难以获得教育内容,潜在地影响他们以母语学习的能力。此外,GenAI经常生成反映技术主导国家观点的内容和课程,盖过被边缘化的土著知识和做法。此外,GenAI的访问成本加剧了教育不平等,并且GenAI数据的控制可能导致商业利用,而并未使当地学生及其社区受益。我们提出了以人为中心的改革,以优先考虑GenAI开发中的文化多样性和公平性;解放性设计,赋予教育者和学生识别和瓦解GenAI应用程序中的压迫结构的能力;设计前瞻性,创建可调整的GenAI系统以满足未来的教育需求;最后,有效的提示技巧来减少新殖民主义产出的检索。
Jun, 2024
通过综合分析基础提示、修饰词和顺序对AI文本生成模型进行的研究,揭示了稳定扩散、DALL-E 3和Adobe Firefly等领先的文本到图像模型中社会偏见的微妙编码方式,从而推动了AI伦理学的发展并为控制偏见的未来研究提供了新的框架。
Jun, 2024
我们引入了一个以文化意识和文化多样性为关键维度对T2I模型进行评估的框架,并使用结构化知识库和大语言模型相结合的方法构建了一个大规模文化艺术品数据集,以便评估文化能力,同时我们还引入了文化多样性作为一种全新的T2I模型评估组成部分,通过质量加权的Vendi分数揭示了现有模型在不同国家的文化意识方面存在显著差距,为全球范围内文化需求提供了有价值的洞察,并能够促进更好地满足全球人口需求的T2I模型的发展。
Jul, 2024