医学影像中人口统计学不变的模型和表征是否公平?
人工智能在医学影像学中逼近人类水平的表现,但其是否在不同人群中造成不公平的预测是一个关键问题。本研究对医学影像学中人工智能使用人口统计学编码的程度进行了深入调查,发现在新的测试环境中,较少编码人口统计属性的模型往往表现出更好的公平性。我们的研究为医学影像学模型在超出初始训练环境中保持性能和公平性提供了最佳实践。
Dec, 2023
本文提出了一种使用编码器 - 解码器网络开发的人脸图像合成方法,以测量商业计算机视觉分类器的反事实公平性,并报告了在线搜索服务中与职业相关的关键字中出现的偏向性,用以解释模型偏差的来源。
May, 2020
通过概率插值敏感特征并联合学习组条件缺失概率的变分自编码器,我们提出了公平感知分类模型,以解决隐私、法律问题和个体恐惧所导致的敏感特征全知要求的实际不可行性问题,我们的模型在图像和表格数据集上表现出较好的准确性和公平性平衡。
Feb, 2024
在医学图像诊断中,公平性变得越来越重要。本文提出了一种方法,在测试阶段实现对敏感属性的公平预测,而无需在训练过程中使用此类信息,并通过增强模型特征和规范特征的纠缠关系来提高公平性和准确性。实验结果表明,在两个皮肤病数据集中,该方法能够提高分类的公平性。
Jan, 2024
本研究提出了一种新型的公平训练算法,该算法在尽可能保护个人隐私的情况下,避免了在机器学习模型中存在不良社会偏见的问题。实验结果显示,该算法可以有效降低社会偏见问题。
Jun, 2021
本文提出了一种数据之间的翻译方法,实现了图像或表格数据的公平性,有效避免保护特征的语义性对公平性造成的影响,并在实际数据集面对性别这一保护特征时表现出了很好的机会平等性。
Oct, 2018
本研究通过引入不确定性感知,对可能存在不确定性的人口敏感属性样本实施公平性要求,并提出一种建立更好的公平性 - 准确性权衡的属性分类器框架,实验证明该框架相对于传统方法在两个数据集上都取得显著的公平性 - 准确性权衡表现优势,并且超过了对真实敏感属性进行约束训练的模型。
Jul, 2023
为了防止受保护人口受到歧视,减轻数据拥有者法律责任,本文尝试通过映射特征到公平表征空间,预防性地消除特征与敏感属性之间的相关性。实验结果表明,平滑表征分布可提供公平证书的泛化保证,同时不降低下游任务的准确性。
Jun, 2020
本文介绍了一种使用 GAN 生成图像并在潜在空间中扰动以生成可以平衡每个受保护属性的训练数据的方法,以缓解由相关性所引起的偏差,通过在原始数据集上增加扰动生成的数据,实证证明训练结果准确且具有许多定量和定性上的优势。在 CelebA 数据集上进行了全面评估和分析,与现有文献进行了比较。
Dec, 2020