该篇研究关注机器学习系统中偏见放大的问题,提出了一种新的偏差放大度量方法,并分析了其技术假设和规范意义,对其测量提出了建议。
Feb, 2021
本文提供了对图像字幕社会偏见放大的研究,通过对传统和现代图像字幕模型的评估和对每个指标的优缺点进行了全面的研究,提出了用于研究字幕偏见放大的 LIC 度量标准,并发现仅关注受保护属性预测的偏见缓解模型意外放大了偏见。
Mar, 2022
机器学习中的偏见放大是一个常见的问题,需要加深对于模型机制的理解,本研究通过控制性实验发现,偏见放大可能由于模型准确度、能力、自信度以及训练数据量等因素产生,同时也可能与分组和分类任务的难易程度相关,研究结果对指导训练机器学习模型具有借鉴意义。
Jan, 2022
本文研究了文本到图像领域中的偏差放大现象,通过比较训练和生成的图像中的性别比例,发现模型似乎放大了训练数据中存在的性别职业偏见。然而,我们发现放大主要归因于训练字幕和模型提示之间的差异。当我们考虑到训练和生成所使用的文本之间的各种分布差异后,观察到放大程度显著降低。我们的研究结果说明了比较模型和训练数据中的偏见的挑战,并强调了导致偏见放大的混淆因素。
Aug, 2023
基于引入可学习的辅助变量的 BAM 算法通过扩大偏差,训练模型并在重新加权数据集上继续训练,从而在计算机视觉和自然语言处理的虚假相关基准测试中取得了竞争性的性能,同时发现基于最小类别准确率差异的简单停止准则可以消除对群组注释的需求,或者在最差组准确率上几乎没有损失。
Sep, 2023
通过引入一个偏差放大的训练集和一个反偏袒的测试集来评估模型的性能,我们提出为了开发对这些偏差具有稳健性的模型,应该将数据集的偏差放大。实验表明,这种评估体系对模型来说比原始的数据拆分和手工制作的挑战集都更具挑战性。
May, 2023
通过双模态增强方法在视觉 - 语言数据集中解决报告偏倚问题,提升物体 - 属性理解并改善零样本检索任务效果。
Oct, 2023
本研究通过分析和实验,展示了在分类器中无法避免的一些偏见和可以上保准确认定的其他偏见来源,并提出了两种新的解决方法。这些方法可以明显降低偏见而不损害准确性,甚至可以取得一些准确度的提高。
Dec, 2018
通过 Lagrange 弛度算法,该研究加入语料库级别的限制条件来解决多标签物体分类和视觉语义角色标记中出现的性别偏见问题,成功地将性别偏见幅度下降了 47.5% 和 40.5%,而识别任务的性能损失却很小。
Jul, 2017
研究表明,基于先进的机器学习技术的自然语言处理中存在性别偏见放大问题,本文提出了基于后验正则化的偏见缓解方法,旨在降低性别偏见的放大,实验证明该方法可在保证少量性能损失的情况下,几乎完全消除了分布中的偏见放大。
May, 2020