本文提出了一种弱监督算法来克服深度生成模型中的数据集偏差,该方法通过额外的小型未标记参考数据集作为监督信号来探测现有数据集中的偏差,并学习生成模型。实验结果表明,该方法降低了基于潜在因素的偏差达到了高达 34.6%,在同时使用基于生成对抗网络的图像生成的情况下,数据效率显著提高。
Oct, 2019
使用深度生成模型生成平衡数据,并提出的偏差缓解损失函数能够在非平衡数据集上改善公平性指标,同时保持图像质量。
Aug, 2023
通过引入一种有效且鲁棒的微调框架来解决在新任务上进行预训练模型微调可能导致不公平结果的问题,该框架中融合了权重重要性中和策略和矩阵因子分解技术,通过实验验证了其有效性。
Mar, 2024
该研究使用生成对抗网络 (GANs) 生成面孔,发现在生成图像的过程中,训练数据中的偏见被放大。为了解决这个问题,提出了一种可解释的基准方法来平衡产生的面部属性,从而产生更平衡的数据。同时,该方法具有泛化能力来处理多个属性以及细分组的样本合成,进而用于量化商业人脸属性分类器和人脸超分辨率算法中的偏见。
Dec, 2020
通过多种方法解决 AI 模型中的偏见问题,使用较小的数据集和可能存在偏见的预训练模型,通过数据分割、局部训练和正则化微调训练多个模型,然后使用集成学习获得不带偏见的预测结果,最后通过知识蒸馏形成单一不带偏见的神经网络模型,实验证明了我们方法的有效性。
Feb, 2024
本研究提出一种通过预处理算法识别和删除偏差样本以生成更公平的合成数据的管道,可以有效地克服许多挑战,并在某些情况下提高性能。
Oct, 2022
通过一项称为公平扩散的新策略,无需数据筛选和额外培训,即可在没有任何偏见的情况下指导生成模型的公平性和防止其加重偏见。
Feb, 2023
快速采用的文本到图像扩散模型强调了解决其偏见的迫切需求。本研究将公平性视为分布对齐问题,提出了两个主要技术贡献:(1)分布对齐损失,将生成的图像的特定特征引导向用户定义的目标分布;(2)扩散模型抽样过程的有偏直接微调,利用有偏梯度更有效地优化生成图像上定义的损失。实证结果显示,我们的方法显著降低了职业提示中的性别、种族及其交叉偏见。即使只微调五个软记号,性别偏见也显著降低。关键是,我们的方法支持超越绝对平等的多样观点公平,如同时控制年龄分布为 75%年轻和 25%年长的情况下消除性别和种族偏见。最后,我们的方法具有可扩展性:通过将这些提示包含在微调数据中,可以同时消除多个概念的偏见。我们希望我们的工作有助于文本到图像生成人工智能的社会调整。我们将共享代码和各种消除偏见的扩散模型适配器。
Nov, 2023
本文通过领域自适应问题提出了新的理论和建模方法,为在新数据少的目标领域中改善公平性提供了解决方案,实证结果证明该方法能够较少数据的情况下改善公平指标
Jun, 2019
研究论文通过使用时间因果图和不同人群干预分布之间的 1-Wasserstein 距离作为定量指标,以减少顺序决策系统中的群体差异,研究了长期公平的机器学习。然后,提出了一个三阶段的学习框架,其中决策模型在深度生成模型生成的高保真数据上进行训练,将优化问题制定为执行风险最小化,并采用了重复梯度下降算法进行学习。经验评估证明了所提出方法在合成和半合成数据集上的有效性。
Jan, 2024