评估预测学生成功的公平性权衡
本研究以高等教育成绩预测为例,试图通过几种算法平衡策略,特别是对标签和示例进行平衡,试图最小化算法与种族之间的差异,提出了一种对抗学习方法,相对公平;此外,对历史上受到服务不足的群体进行样本抽取,能够最大程度地提高预测性能。同时,我们的研究结果还填补了 AI 资源方面平等和公正框架方面的不足。
May, 2021
针对敏感应用如医疗保健或刑事司法等领域,本研究旨在解决在预测模型中公平性与准确性的平衡问题,并提出,应该在数据的背景下评估预测结果的公平性,并通过数据收集来解决样本大小或未测量的预测变量所带来的不公平性,同时通过将成本基准的歧视度量分解为偏差,方差和噪音,并提出旨在估计和减少每个术语的行动。最后,本文以收入,死亡率和审查等领域的预测为案例研究,确认这种分析方法的价值,并发现数据收集通常是减少歧视而不牺牲准确性的手段。
May, 2018
本研究提出了一种基于软件工程原理的人工智能框架,用于在保证医疗保健公平的同时识别和缓解数据和模型中的偏见和歧视,通过案例研究表明数据中的系统性偏见会导致模型预测中的偏差增大,并提出了机器学习方法来预防这种偏见。未来的研究目标是在实际的临床环境中测试和验证所提出的 ML 框架,以评估其在促进健康公平方面的影响。
May, 2023
这篇论文探讨了机器学习算法在高影响临床决策系统中应用的公平性、可解释性和透明度,提出了一种基于倾向评分和决策树的算法指南,帮助临床医生识别模型的可预测缺陷,同时指导算法开发人员改进数据源和结构以解决这些缺陷。
Nov, 2020
本文提出了通过从可允许的训练数据中去除保护变量的所有信息来消除预测模型偏见的方法,并将其应用于罪犯记录的数据集以产生种族中立的再逮捕预测方案,证明了将种族作为协变量省略的方式仍导致存在种族差异,并且证明了应用我们提出的方法可以将这些数据中的种族差异从预测中去除,并对预测准确性的影响最小。
Oct, 2016
机器学习算法应用广泛,但也可能存在偏见和不公平。本研究提出了一种刻画数据偏见的分类法,并探究了算法的不公平和精度之间的权衡。实证研究表明,在不同的数据偏见设置下,算法的公平性和精度会受到不同的影响,而简单的预处理干预技术可以提高算法的公平性。
Jul, 2022