本文研究如何建立预测模型以帮助识别处于风险中的学生并为他们提供更好的支持,但预测模型可能会存在性别和种族偏见,因此需要进行后续调整以提高公平性并平衡不同的公平措施。
Jun, 2020
本研究以高等教育成绩预测为例,试图通过几种算法平衡策略,特别是对标签和示例进行平衡,试图最小化算法与种族之间的差异,提出了一种对抗学习方法,相对公平;此外,对历史上受到服务不足的群体进行样本抽取,能够最大程度地提高预测性能。同时,我们的研究结果还填补了 AI 资源方面平等和公正框架方面的不足。
May, 2021
介绍算法公平性在教育中的应用,关注预测模型、偏见和歧视,给出了在教育技术中如何促进算法公正性的方针建议。
Jul, 2020
该论文介绍了一种比较不同风险评估模型公平性的框架,特别关注与种族和性别的不平等问题,以预测再犯率和贷款为例进行实验。
Jun, 2017
通过引入基于不同类型的不确定性,即不确定性度量和主观不确定性度量,证明了不确定性度量在公平性评估中的补充作用,并提供了关于导致偏见的潜在问题的更多见解。
Dec, 2023
本文主要研究了图中预测任务的算法公正问题,提出了一种嵌入不可知的修复过程以实现组内和个体的公正权衡,并在实验中验证了该方法对不同公正概念和预测准确性的显式控制能力。
Oct, 2020
论文研究了当前用于评估机器学习算法在文本数据上进行性别歧视的不足之处的度量方法,着重于 Bios 数据集上的职业预测任务,研究表明常用的性别偏差指数在训练集样本较小时具有不可靠性。
Jun, 2023
本文旨在研究学术绩效预测系统中的公平性概念,发现基于学术绩效预测系统的 WYSIWYG 世界观和人群潜在的长期改善,平等赔率是最适合的公平概念。
Sep, 2022
本文回顾了以往提出的公正度量标准,并讨论了绩效基准框架以及替代度量标准的评估。
Jul, 2021
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。