深度伪造检测中公平性的提高
通过同时考虑特征、损失和优化方面,我们提出了第一个在深度假像检测中解决公平性泛化问题的方法,采用解缠学习提取人口统计和领域无关的伪造特征,并将它们融合在一起,以在交叉领域的深度假像检测中鼓励公平学习。在知名深度假像数据集上进行的广泛实验证明了我们方法在保持公平性方面的有效性,超过了现有技术水平。
Feb, 2024
研究发现最近深度学习模型容易出现以种族和性别等保护类别为基础的歧视。通过使用平衡的脸部数据集,探究三种常见的深度伪造检测器在保护子群体上的性能差异,发现预测性能在种族之间存在很大的差异,该研究还发现一些方法可能会导致伪造影响保护子群体,并造成检测器出现系统性别种族歧视。
May, 2021
本文建立了一个性别平衡且标注了性别标签的深度伪造数据集,用于解决当前深度学习伪造检测器在性别上表现差异导致的不公平问题。分析结果表明,当前普遍采用的深度伪造检测器在大多数情况下男性的表现优于女性的表现。
Jul, 2022
在深度学习模型使用高维输入和主观标签进行训练时,公正性依然是一个复杂且缺乏研究的领域。面部情绪识别是一个数据集往往存在种族不平衡问题的领域,可能导致模型在不同种族群体之间产生不同的结果。本研究聚焦于通过对具有多样种族分布的训练集进行子采样,以及评估这些模拟中的测试性能来分析种族偏见。我们的发现表明,较小的数据集中的伪造面孔可以在接近种族平衡的模拟中提高公正性和性能指标。值得注意的是,F1 分数平均增加了 27.2 个百分点,人口统计学平等指标平均增加了 15.7 个百分点。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变,这表明仅仅种族平衡是无法在不同种族群体之间实现测试性能的平等的。
Aug, 2023
利用生成的训练数据集中的人口属性平衡机制,提出了一种全面的评估方法,旨在促进更公平、透明的人脸识别和验证,并发现在减少人口属性不公平的同时,性能差距仍然存在。
Jun, 2024
机器学习算法已被广泛应用在各种领域,然而由此带来的公平性问题在高风险案例(如人脸识别和医学影像分析)中引起了极大关注。本文针对深度神经网络中公平性的限制条件及其行为矫正方法的有效性进行了研究,实验结果表明,在特定公平度量下,大型模型会对公平的过度拟合而产生一系列意外和不良后果。
Feb, 2021
通过生成式 AI 和扩散模型,我们引入了两个广泛的生成伪造数据集,用于测试当前深伪造检测器的脆弱性,并提出了增强训练数据多样性和动量困难提升策略来改进模型的普适性。通过全面评估,我们的模型优化方法明显优于以前的替代方案。
Apr, 2024
本研究提出了一种新颖的深度学习架构,结合了预处理方法和处理方法来提高预测的公平性,结果表明相比于偏见校正方法和没有任何偏见校正的模型,所提出的模型在提高犯罪预测的公平性方面取得了进步,但牺牲了一定的准确性。
Jun, 2024
本论文开展了第一次大规模实证研究,全面比较了现有最先进的公平性改进技术的性能,结果显示不同方法在不同数据集和敏感属性上表现存在较大差异,且不同的公平评估指标产生显著不同的评估结果,其中预处理方法和内处理方法优于后处理方法,预处理方法表现最佳,本研究为深度学习模型公平性提供了全面的建议。
Jan, 2024
研究了 deepfake 检测器的泛化能力,发现现有模型难以适应未经训练的 deepfakes 数据集,但鉴于它们普遍学习合成方法的特定属性并难以提取区分特征,发现有神经元对已见和未见数据集都起到检测作用,为实现零样本泛化能力指明了可能的方向。
Aug, 2023