面部分析中的偏差解剖
本研究探讨了医疗影像分析中的人工智能系统的公平性问题,特别是围绕判定偏见和校准偏见的研究,并展示了通常使用的多种校准指标对样本量存在系统性偏差的情况,如果未考虑到这一点,可能会导致错误的公平性分析。
May, 2023
我们提出了一种实验方法来测量面部分析算法的算法偏差,该方法可以操作感兴趣的属性(如性别和肤色),以揭示属性变化与性能变化之间的因果联系,并且相较于观察性数据集,合成横断面具有更均衡的属性采样,可预测新场景中的偏差,在减少道德和法律难题的同时,还可以节省成本,并使偏差测试变得更加负担得起和普遍可用。
Jul, 2020
这篇研究论文旨在通过详细的基准测试来检查商业和学术模型的人脸检测问题,特别关注这些系统对于不同身份的人的鲁棒性和公平性的问题,结果发现西方男性、年龄偏大、皮肤较暗和光照条件较差的人更容易受到错误的影响。
Nov, 2022
通过一种新的分析框架,我们展示了如何系统性、客观地研究医学图像中的偏见对人工智能模型的影响,并评估偏见缓解策略在性能差异方面的有效性,从而支持开发健壮、负责任的临床人工智能。
Nov, 2023
通过深入分析,本文重点讨论了涉及种族、年龄和性别等因素的交叉偏见问题,提出了在当前文献中较少探索的种族、年龄和性别组合方面的性能差异。此外,本文在定量分析中引入了五个补充指标,包括不公平影响和不公平待遇指标,以克服当前主流方法中常被忽视的重要局限。研究结果表明,人脸识别系统存在普遍偏见,不仅限于种族,不同的人口统计因素导致显著不同的结果。通过揭示这些偏见及其影响,本文旨在促进进一步研究,以开发更公正、更公平的人脸识别和验证系统。
Jul, 2023
人工智能系统在临床实践中有潜力革新,包括提高诊断准确性和手术决策,并降低成本和人力。然而,需要认识到这些系统可能会延续社会不公平或表现出以种族或性别为基础的偏见。为了准确可靠地应用人工智能模型于临床环境中,理解和解决潜在的偏见至关重要。通过调查生物医学自然语言处理或计算机视觉领域的最新出版物,我们对生物医学领域中应用的偏见处理方法进行了概述,并讨论了每种方法的优势和弱点。最后,我们还回顾了从一般领域中可能应用于生物医学领域以解决偏见和提高公平性的其他潜在方法。
Feb, 2024