教育中的算法公平性
本文研究如何建立预测模型以帮助识别处于风险中的学生并为他们提供更好的支持,但预测模型可能会存在性别和种族偏见,因此需要进行后续调整以提高公平性并平衡不同的公平措施。
Jun, 2020
本文概述了在使用人工智能算法时如何识别、测量和提高算法公正性的主要概念,并讨论了算法偏见和不公正的原因、公正的常见定义和度量以及预处理、处理中和后处理机制,最终回顾了几个新兴的算法公正性研究子领域。
Jan, 2020
本研究以高等教育成绩预测为例,试图通过几种算法平衡策略,特别是对标签和示例进行平衡,试图最小化算法与种族之间的差异,提出了一种对抗学习方法,相对公平;此外,对历史上受到服务不足的群体进行样本抽取,能够最大程度地提高预测性能。同时,我们的研究结果还填补了 AI 资源方面平等和公正框架方面的不足。
May, 2021
该论文提供了针对算法公平性的业务分析的前瞻性评论,首先审查了偏差的来源和度量标准以及偏差缓解算法的最新研究进展,然后详细讨论了效用公平关系,并最终确定了业务学者可以解决和解决的关键挑战,这些挑战对 BA 的有效和负责任的部署至关重要。
Jul, 2022
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
多领域调查为从业人员和研究者提供一个均衡和综合的覆盖,涵盖算法招聘、偏见、度量、缓解策略、数据集和法律方面,旨在支持对这项技术的情境化理解与治理,并提供未来工作的建议,以确保所有利益相关方共享利益。
Sep, 2023
探讨机器学习算法公平性如何在预测任务中被正式化,并提供相应的社会科学文献中分配公正的概念,通过理论和实证批判这些概念,并解释这些批判如何限制相应公平正式化的适用性和讨论潜在公平正式化的路径。
Oct, 2017
本文旨在调查研究自动化决策系统中机器学习算法存在的偏差及其与公平、隐私和分类准确性之间的关系,并综述了处理公平 - 准确性权衡的不同方法。作者通过实验分析了公平度量和准确度在现实世界场景中的关系。
Sep, 2022