在微调预训练模型中消除偏见以提升公平性和效率
在医学诊断等伦理敏感应用领域,以鲁棒的群体公平性训练模型至关重要。尽管有越来越多的研究旨在减少人工智能中的人口偏差,但这个问题仍然具有挑战性。公平性的泛化差距是这个挑战的原因之一:高容量的深度学习模型几乎可以完美地拟合所有训练数据,从而在训练过程中也表现出完美的公平性。在这种情况下,偏差仅在测试时出现,因为泛化表现在不同的子群体之间有差异。这激发了我们从双层优化的角度来看待公平学习:根据验证公平性来优化学习策略。具体而言,我们考虑采用适应预训练模型到下游医学图像任务的参数高效微调(PEFT)技术的高效工作流。在更新更多参数以更好地适应感兴趣的任务与更新更少参数以减少泛化差距之间存在权衡。为了处理这个权衡,我们提出了一个框架 FairTune,以优化与公平性相关的 PEFT 参数的选择。我们经验证明,FairTune 在一系列医学图像数据集上能够提高公平性。
Oct, 2023
在现代数据科学中,机器学习已被广泛应用,算法公正性已成为一个重大关注点。研究者提出了各种公正性标准,可以通过训练时的公平性约束来实现公平性,新方法则利用预训练和微调来训练公平的神经网络。在两个流行的图像数据集上进行的实验表明,公平性微调足以提高深度神经网络的公平性。
Apr, 2023
通过多种方法解决 AI 模型中的偏见问题,使用较小的数据集和可能存在偏见的预训练模型,通过数据分割、局部训练和正则化微调训练多个模型,然后使用集成学习获得不带偏见的预测结果,最后通过知识蒸馏形成单一不带偏见的神经网络模型,实验证明了我们方法的有效性。
Feb, 2024
该研究提出了一种基于转移学习的公平生成模型方法,利用大规模含偏见、小规模不含偏见的数据集作为训练数据,在不同的模型中进行知识迁移,实现生成样本的高质量和公正性。
Dec, 2022
在这项研究中,我们以性别偏见为案例研究,通过量化预训练和微调对三类视觉与语言模型中的偏见放大进行分析,研究了这两个学习阶段之间的联系,并评估了偏见放大对模型性能的影响。总体来说,我们发现预训练和微调中的偏见放大是相互独立的。接着,我们研究了对性别中性数据的持续预训练对 VQAv2 和检索任务的影响,发现这种方法可以减少群体间的差异并提升公平性,而不会显著影响任务性能。
Oct, 2023
我们提出了一个名为 FAIRIF 的两阶段训练算法,它可以应用于一系列使用随机梯度下降训练的模型,并通过在小型验证集上计算样本权重来实现跨不同人口群体的模型性能平衡,从而缓解先前机器学习算法中存在的不公平问题。在合成数据集和实际数据集上的实验表明,FAIRIF 可以在牺牲很少的模型实用性的情况下实现更好的公平性 - 实用性权衡。
Jan, 2022
研究表明低秩逼近 Fine-Tuning 在捕捉 Fine-Tuning 数据集从初始预训练数据分布中的转变方面具有不足之处,会产生不可忽视的副作用,包括在针对有毒模型和提供公平模型的情景下意外保留不合理的偏差和有毒行为。此外,对于顺序决策任务,需要进行仔细评估以促进负责任的大型语言模型开发。
May, 2024
本文提出了一种名为 FairReprogram 的通用公平学习范式,旨在消除机器学习模型中存在的人口统计偏差问题,该方法通过在输入数据中追加多组扰动向量,使得机器学习模型无法准确获取输入数据的真实信息从而达到公平的目标。实验证明此方法显著有效,并且效果比现有的基于重新训练权值的方法要好。
Sep, 2022
通过概念微调(Concept-Tuning)方法,可以改善预训练模型的特征表示,减少罕见特征和虚假关联特征的负面影响,进而提高细调方法在各种数据集上的表现。
Nov, 2023