从人类想象力中学习视觉偏倚
本文通过研究基于大规模未标记图像数据的机器学习方法,并发现其可能对种族,性别,体重,残疾和少数种族存在的偏见和刻板印象进行了分类和嵌入,从而证明了这些模型可能会自动学习社会偏见。
Oct, 2020
通过整合视觉解释力量,本研究提出了一个名为 Visually Grounded Bias Discovery and Mitigation (ViG-Bias) 的简单而高效的技术,并通过全面评估证明其对现有的 DOMINO、FACTS 和 Bias-to-Text 等技术的性能提升,在包括 CelebA、Waterbirds 和 NICO++ 在内的多个具有挑战性的数据集上都取得了成功。
Jul, 2024
本文研究在保证图像质量的前提下,通过网络优化或中间模型转换等方式提升处理后图像的机器识别准确率,发现这种方法在不同架构、类别、任务以及数据集的模型间都有很强的迁移性,可以用于各种图像处理任务中,提高了机器识别准确率,而且能很好地迁移到黑盒云模型上。
Oct, 2019
该论文探讨了神经网络架构在解决视觉任务时存在的局限性,与人类学习抽象概念的策略不同。研究利用一组新的图像转换方法,对人类和网络在对象识别任务上进行了评估,发现常见网络的性能迅速下降,而人类能够以高精度识别对象。
May, 2022
本文提出了一项新颖的任务,即追踪人类学习者在进行挑战性的视觉分类任务时不断演变的分类行为,提出了一种新的视觉知识追踪模型,并收集三个挑战性的新数据集,从而评估不同的视觉知识追踪方法的性能,结果表明我们的循环模型能够预测人类学习者在三个挑战性的医学图像和物种识别任务中的分类行为。
Jul, 2022
本文主张人工智能系统需要模拟、理解、甚至复制人类的认知偏差,在人机协作中扮演更加重要的角色,并提出了关于人类认知偏差和人工智能之间相互作用的研究议程及三个感兴趣的广泛领域,并为具有更好对人类偏见的人工智能系统的设计方向提出了研究方向。
Oct, 2022
通过引入基于认知科学文献的方法工具,本研究介绍了一项基准测试来评估人工模型的偏差,并使用这个基准测试评估了 CLIP 模型。我们发现,虽然单词嵌入的图像会扭曲 CLIP 模型在不同类别级别上的图像分类,但这种影响不依赖于图像和嵌入单词之间的语义关系,这表明 CLIP 视觉处理中的语义词表示与图像表示不共享。
Jan, 2022
该研究提出了一种视觉分析系统(ESCAPE),通过人类参与者的观测和量化,以及减轻偏见的解决方案(debias 方法),在避免人工智能盲点(AI blindspots)和系统性错误方面具有较高的实用性。
Mar, 2023
该研究比较了人类和机器视觉模型在特定任务上的表现差异及难度排名,通过实验展示了一种基于人机协作的方法,在视觉任务中取得了更好的成果。
Apr, 2023