公正的修剪:通过修剪实现皮肤病诊断的公平性
在医学图像诊断中,公平性变得越来越重要。本文提出了一种方法,在测试阶段实现对敏感属性的公平预测,而无需在训练过程中使用此类信息,并通过增强模型特征和规范特征的纠缠关系来提高公平性和准确性。实验结果表明,在两个皮肤病数据集中,该方法能够提高分类的公平性。
Jan, 2024
在数据密集型模型的时代,精心选择训练数据对于减轻深度学习的昂贵成本至关重要。本文通过删除冗余或无信息的样本来解决这个问题,并提出了一个公平感知的修剪方法,其在标准计算机视觉基准上展示了良好的性能,与现有算法形成鲜明对比。
Apr, 2024
本文提出了一种新的剪枝方法,称为公平感知梯度剪枝方法(FairGRAPE),以平衡不同子组在神经网络压缩过程中可能存在的影响,该方法在面部属性分类任务中对四个数据集(FairFace,UTKFace,CelebA 和 ImageNet)进行了测试,在高剪枝率(99%)的情况下比其他最先进的剪枝算法减少了达到 90% 的性能下降差异。
Jul, 2022
本文提出了一种新的算法来训练公平的 deepfake detection model,以解决使用偏见的数据训练深度学习模型可能会导致不公平表现的问题。实验结果表明,该方法可以提高 deepfake detection 的公平性和鲁棒性。
Jun, 2023
基于深度学习模型的皮肤疾病诊断中,为了解决公平性问题且不损害预测准确性,我们提出了一种基于两个偏倚的教师模型的方法,通过权重损失函数进行偏倚与去偏倚的训练,提高了模型的准确度和公平性。
May, 2024
在医学诊断等伦理敏感应用领域,以鲁棒的群体公平性训练模型至关重要。尽管有越来越多的研究旨在减少人工智能中的人口偏差,但这个问题仍然具有挑战性。公平性的泛化差距是这个挑战的原因之一:高容量的深度学习模型几乎可以完美地拟合所有训练数据,从而在训练过程中也表现出完美的公平性。在这种情况下,偏差仅在测试时出现,因为泛化表现在不同的子群体之间有差异。这激发了我们从双层优化的角度来看待公平学习:根据验证公平性来优化学习策略。具体而言,我们考虑采用适应预训练模型到下游医学图像任务的参数高效微调(PEFT)技术的高效工作流。在更新更多参数以更好地适应感兴趣的任务与更新更少参数以减少泛化差距之间存在权衡。为了处理这个权衡,我们提出了一个框架 FairTune,以优化与公平性相关的 PEFT 参数的选择。我们经验证明,FairTune 在一系列医学图像数据集上能够提高公平性。
Oct, 2023
通过公平剪枝技术,我们提出了一种基于稀疏模型的公平剪枝框架,旨在在保持性能的同时确保公平性,并通过实验证明了该方法在维持模型公平性、性能和效率方面的优越性。
Dec, 2023
本文介绍了一种基于深度学习的公平皮肤病诊断框架 FairDisCo,通过对比学习和删除敏感属性等方法,有效解决了现有模型对较暗皮肤图像的低准确度问题。在两个新的皮肤数据集 Fitzpatrick17k 和 Diverse Dermatology Images 上的评估表明,FairDisCo 在公平性和性能方面的表现均优于其他三种公平性方法。
Aug, 2022