深度伪造检测 AI 模型公正性的探讨
本文提出了一种新的算法来训练公平的 deepfake detection model,以解决使用偏见的数据训练深度学习模型可能会导致不公平表现的问题。实验结果表明,该方法可以提高 deepfake detection 的公平性和鲁棒性。
Jun, 2023
本文建立了一个性别平衡且标注了性别标签的深度伪造数据集,用于解决当前深度学习伪造检测器在性别上表现差异导致的不公平问题。分析结果表明,当前普遍采用的深度伪造检测器在大多数情况下男性的表现优于女性的表现。
Jul, 2022
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023
针对自动化性别分类系统在不同种族和性别群体中存在的差异性,本文分析了深度学习算法中的架构差异和训练集不平衡等潜在差异性来源,并在两个大规模的公开数据集上进行了实验。实验结果表明,不同算法的分类表现存在一致性,而且黑种女性和黑种族总体的准确率最低,中东男性和拉丁女性的准确率大多数情况下更高。同时提出骨骼结构受基因和环境因素影响的面部形态差异可能是黑种女性表现不佳的原因。
Sep, 2020
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
本文研究基于深度学习技术的面部识别、年龄估计、性别识别和亲属关系验证模型中存在的人口统计学偏差,并通过引入规模最大、最全面的面部图像和视频数据集及手动注释,揭示了基于最先进模型的拟合性能和偏差,最后引入和验证了去偏嵌入网络的方法。
May, 2020
研究使用人工智能在医学影像中进行自动化常规任务的过程中,模型选择对主体性别和种族的数据不平衡导致的算法偏见有显著影响,在心脏磁共振图像分割中,我们评估了三种基于卷积神经网络的模型和一种视觉变换器模型,发现其中三种模型存在显著性别偏见,而所有模型都存在种族偏见,然而偏见的严重程度和性质因模型选择而异,凸显了在医学影像任务的公平 AI 分割模型训练中模型选择的重要性。
Aug, 2023
该研究讨论了使用神经网络建立心脏数据的图像分割模型时,数据库不平衡导致的种族偏见,提出了三种解决方案,并发现 protected group models 的使用最有效。
Jun, 2021
通过生成式 AI 和扩散模型,我们引入了两个广泛的生成伪造数据集,用于测试当前深伪造检测器的脆弱性,并提出了增强训练数据多样性和动量困难提升策略来改进模型的普适性。通过全面评估,我们的模型优化方法明显优于以前的替代方案。
Apr, 2024
利用生成的训练数据集中的人口属性平衡机制,提出了一种全面的评估方法,旨在促进更公平、透明的人脸识别和验证,并发现在减少人口属性不公平的同时,性能差距仍然存在。
Jun, 2024