评估预测菲律宾学生学术表现的模型中的算法偏见
本文研究如何建立预测模型以帮助识别处于风险中的学生并为他们提供更好的支持,但预测模型可能会存在性别和种族偏见,因此需要进行后续调整以提高公平性并平衡不同的公平措施。
Jun, 2020
该研究通过使用基于地区的方法识别不同地区的性别偏见差异,并使用此方法进行性别偏见评估,同时使用基于词嵌入关联测试 (WEAT) 的评估指标测试不同地区的性别偏见。
Jun, 2024
本研究探讨了医疗影像分析中的人工智能系统的公平性问题,特别是围绕判定偏见和校准偏见的研究,并展示了通常使用的多种校准指标对样本量存在系统性偏差的情况,如果未考虑到这一点,可能会导致错误的公平性分析。
May, 2023
本文提出一种优化预测能力以针对不同种族和性别等人群的学生表现的方法,通过联邦学习建立个性化学生模型,结合自我监督预训练和神经网络注意力机制,实现针对不同学生子群体的个性化模型派生,有效改善学生建模结果的预测能力。
Aug, 2022
本研究以高等教育成绩预测为例,试图通过几种算法平衡策略,特别是对标签和示例进行平衡,试图最小化算法与种族之间的差异,提出了一种对抗学习方法,相对公平;此外,对历史上受到服务不足的群体进行样本抽取,能够最大程度地提高预测性能。同时,我们的研究结果还填补了 AI 资源方面平等和公正框架方面的不足。
May, 2021
AI/NLP models trained on racially biased datasets demonstrate various types of bias, raising profound ethical implications regarding the impact of these models on user experience and decision-making due to the presence of racial bias features in datasets. The research implicates a negative influence on users' persuasiveness due to unexplainable discriminatory outcomes, calling for responsible AI frameworks within organizations.
Jan, 2022
通过使用 CART 算法,本研究提出了一种创新的框架,用于检测医疗人工智能决策支持系统中的算法偏见。通过一系列合成数据实验和格拉迪纪念医院的电子病历实验,我们验证了该方法的准确性和实用性,进一步证明了它在临床环境中作为确保公平和公正的关键工具。
Dec, 2023
本文展示了在真实世界中基于 40 个高评分 Kaggle 模型的公平性评估及其 7 种缓解技术的实证研究。结果发现,部分优化技术会导致模型失公,尽管机器学习库中有公平控制机制,但这些机制未被记录。最佳的降低失公的方法往往存在权衡和代价.
May, 2020