分类器中的显著性预测偏差识别
提出了一种灵活的审计框架 Conditional Bias Scan (CBS),以检测分类模型中的交叉偏见,该方法可以检测到先前未发现的交叉和上下文相关偏见,并且相对于仅审计子组公平性的类似方法具有更高的偏见检测能力。
Jun, 2023
通过分解图像特征为多个组分并生成自然语言描述,使用 DIM 方法来发现和减轻图像分类器中的多个有偏群体,并揭示模型在 Hard ImageNet 上的失误模式,以理解图像分类器中的模型偏差。
Mar, 2024
我们研究深度分类器中的性能差异。我们发现分类器将个体分为子群的能力在医学成像模态和保护特性之间存在显著差异;关键是,我们展示了这一特性对算法偏见具有预测作用。通过理论分析和广泛的经验评估,我们发现了子群分离性、子群差异和在训练数据存在系统偏差(如低诊断率)时性能下降之间的关系。我们的发现为理解模型如何变得有偏提供了新的视角,为公平的医学成像人工智能的发展提供了重要的见解。
Jul, 2023
通过假设在分组不可知的特征空间中分组投影的类条件不变性,我们提出了一种在半监督学习中利用数据内在分组结构来优化分类器的方法,从而可以提高 ROC 曲线下面积。
Dec, 2022
该研究提出了一种新模型 RISK,旨在利用特征空间来避免偏见,而不是依赖于预先定义的偏见属性,取得了最新的最好性能,并能提高模型的泛化能力。
Sep, 2022
本文提出 COnfidence-baSed MOdel Selection(CosMoS)方法,基于模型置信度动态选择不同强度的模型来在多数和少数子群体上实现高性能,并使用多个数据集验证其性能。
Jun, 2023
本文提出了一种基于 Hilber-Schmidt 独立性准则的预处理步骤,用于自动识别敏感特征,以解决机器学习模型在高度影响社会的决策支持系统中不公平结果的问题。我们的实验结果证明了我们的假设,并表明文献中被认为是敏感的几个特征不一定产生不公平结果。
May, 2023