问题表述与公平性
本文探讨公平和道德人工智能的方法,引入了一组三部分的决策工具包,涉及公正 AI / ML 的相关问题,并主张采用特定的推理和创造性的方法去解决负责任的算法 / 数据驱动系统面临的各种问题。
Mar, 2023
探讨机器学习算法公平性如何在预测任务中被正式化,并提供相应的社会科学文献中分配公正的概念,通过理论和实证批判这些概念,并解释这些批判如何限制相应公平正式化的适用性和讨论潜在公平正式化的路径。
Oct, 2017
本文介绍社区基础系统动力学 (CBSD) 方法作为一种促进典型被排除利益相关者参与机器学习系统开发中问题构建阶段、促进深入理解问题并缓解偏差的方法。
May, 2020
本文提出以量化社会科学的测量建模作为理解计算机系统公平性的框架,并探讨了由于测量建模中的理论构想和实际操作不匹配而引起的公平性问题,提供了一系列工具来明确和测试构想及其实际操作,并为针对不同背景下对公平的理论性相关性进行了阐述和解决。
Dec, 2019
数据实践塑造了公平机器学习研究和实践。关键数据研究通过指出不足并提出改进建议,为该领域的负责前进提供了重要的反思和批评。本研究对公平机器学习数据集进行了全面分析,展示了不经思考的常见实践如何阻碍算法公平研究的覆盖率和可靠性。我们对表格数据集中编码的保护信息以及在 142 篇出版物的 280 个实验中的使用进行了系统研究,发现了三个主要问题:(1)数据和评估中某些保护属性的缺乏代表性;(2)数据预处理过程中普遍排除少数群体;以及(3)威胁公平性研究泛化的模糊数据处理。通过在显著数据集的利用上进行示范性分析,我们展示了不经思考的数据决策如何不成比例地影响少数群体、公平度量和模型比较结果。此外,我们还发现了公开可用数据的限制、隐私考虑以及普遍缺乏意识等补充因素,加剧了这些挑战。为了解决这些问题,我们提出了一套以透明和负责任包容为核心的数据使用建议。本研究强调了对公平机器学习中数据实践进行关键重新评估的必要性,并提供了改善数据的获取和使用的方向。
Apr, 2024
个体公平性的再形式化条件是个体的统计独立性,它与机器学习中的公平意识兼容,并能与公平概念(平等的几率、充分性)以及统计平衡相结合,适用于预处理、过程中和后处理公平预测的方法。
Sep, 2023
提出了一种利用用户界面和采访协议结合的框架,以考虑利益相关者的主观公平观念,并应用于儿童虐待预测系统的用户研究中,结果表明该框架可以全面传达利益相关者的公平观点,对于预测系统的设计具有启示意义。
Feb, 2021
本文提倡将多样性作为核心优先事项,以实现算法公平所追求的不歧视和公正目标,并为计算机科学的从业人员提供具体的多样性措施建议,以增加多样性,并提高算法公平的实践水平。
Feb, 2020