Nov, 2023

利用扩散扰动衡量计算机视觉中的公平性

TL;DR通过扩散模型生成多个包含不同种族标签的职业图像集,我们发现使用非高加索标签生成的图像的职业错误分类率显著高于使用高加索标签生成的图像,且部分错误分类表明存在种族偏见。通过计算对不同身份群体预测的真实职业标签的概率标准差,我们测量了模型的公平性。使用这个公平性指标,我们发现在评估的视觉和语言模型之间存在显著差异。我们希望我们的研究展示了使用扩散方法进行公平性评估的潜在价值。