视觉语义人工智能中的标记性
研究了基于 “CLIP(对比语言图像预训练)” 模型进行多模态 “视觉语义” 的最新进展,结果表明,此模型存在种族偏见的现象,即具体到 “一降” 的界定,黑人 - 白人女性图像被归为黑人是该模型中的默认值,证明了 AI 学习的自然语言中存在的隐性偏见与认知信念有关,因此必须对其进行监督和检查。
May, 2022
研究表明,语言和图像 AI 模型中存在与社会和实验心理学先前观察到的偏见相符合的现象,即将美国身份视为白人身份,并通过下游机器学习任务产生种族偏见。
Jul, 2022
本研究针对 CLIP 在像素级开放词汇学习任务中面临的输入像素误识别问题,提出了一种名为 TagCLIP 的改进方法,通过引入一种名为 trusty token 的可信标记,成功提高了现有模型的泛化容量。针对 PASCAL VOC 2012 和 COCO-Stuff 164K 两大数据集,TagCLIP 对于未知分类的 IOU 值均有显著提升。
Apr, 2023
本文提出了一个名为 MMBias 的基准数据集,用于评估自我监督多模态模型中的偏差,并介绍了一种旨在缓解偏差的去偏置方法。
Mar, 2023
通过查询大规模视觉语言模型,我们观察到在输入图像中人物的性别和种族上存在显著差异,针对此问题我们提出了新的数据集 PAIRS (每日场景的平行图像),并研究了大规模视觉语言模型中的性别和种族偏见。
Feb, 2024
本研究分析了图像描述中的社会偏见以及种族偏见,具体关注于 COCO 数据集中的感知性别和肤色标注等因素。结果表明图像描述模型对于不同肤色的人物的表述、情感和词汇选择存在差异,并发现这种差异在现代模型中更加明显。
Jun, 2021
通过引入基于认知科学文献的方法工具,本研究介绍了一项基准测试来评估人工模型的偏差,并使用这个基准测试评估了 CLIP 模型。我们发现,虽然单词嵌入的图像会扭曲 CLIP 模型在不同类别级别上的图像分类,但这种影响不依赖于图像和嵌入单词之间的语义关系,这表明 CLIP 视觉处理中的语义词表示与图像表示不共享。
Jan, 2022
通过使用 CLIP 模型作为丰富的知识源来推断敏感信息,我们在图像和语言嵌入派生的相似度上进行样本聚类,并评估其与真实属性分布的一致性,然后通过重新采样和增强性能较差的聚类来训练目标模型,实验结果表明,该模型在多个基准偏见数据集上取得了明显的公平性改善,说明 CLIP 可以提取受语言触发的区分性敏感信息,用于推动模型公平性。
Mar, 2024
本文通过自监督学习及视觉 - 语言模型,提出了 CLIP-S4 方法,该方法可以在不需要人类注释和未知类信息的情况下进行各种语义分割任务,包括无监督、迁移学习和语言驱动分割,并在未知类别识别上表现出良好的性能优势。
May, 2023
本文提出了基于提示的标记人物法(Marked Personas),其使用无词库或数据标注的方法来测量具有交叉社会群体的 LLMs 中的刻板印象,结果显示 GPT-3.5 和 GPT-4 生成的叙述比使用相同提示的人类撰写的叙述包含更多种族刻板印象。同时,对于边缘化群体的描绘也存在特定模式,例如热带化和社会萎缩化。这些代表性的伤害对于像故事生成之类的下游应用具有令人担忧的影响。
May, 2023