Oct, 2023

评估计算机视觉中的判别基础模型的公平性

TL;DR我们提出了一种用于评估具有歧视性基础模型(如相互对比语言预训练模型)的偏差的新分类方法,并根据该分类方法系统评估了现有的缓解这些模型偏差的方法。我们针对OpenAI的CLIP和OpenCLIP模型对关键的应用进行了评估,例如零样本分类、图像检索和图像字幕等。我们根据三个方面对所需的行为进行了分类:(i)任务是否涉及人类;(ii)任务的主观性程度(即,不同背景的人们是否会同意标注);以及(iii)任务的预期目的,是否通过公正性(即,独立于受保护属性进行决策)或代表性(即,通过最大程度地增加多样性进行决策)来更好地服务于公平性。最后,我们在十个不同的数据集上提供了二元和多值受保护属性的定量公平性评估结果。我们发现,用于公平性表示的后处理方法“公平PCA”在大多数上述任务的去偏中效果非常好,同时只带来了轻微的性能损失。然而,不同的去偏方法在不同的任务中的有效性有所不同。因此,对于特定的使用情况,应选择相应的去偏方法。