自动决策中偏差的更广视角:从认识论和动态方面反思
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
调查表明,人工智能领域中存在各种偏见和不公,因此机器学习研究人员定义了公平性的分类,以解决现有 AI 系统中的偏见问题。此外,调查还考察了在 AI 的不同领域和子领域中,现有技术的问题及其应对措施,以期鼓励研究人员在其各自领域中研究此问题。
Aug, 2019
本文提出了一种框架来生成具有特定类型偏差和它们的组合的合成数据,以分析在机器学习模型中存在的各种偏差,讨论它们与道德和正义框架的关系,并利用我们提出的合成数据发生器在不同场景中(包括存在不同偏差组合的场景)进行实验,因此分析了偏差对未减轻和减轻的机器学习模型的性能和公平度指标的影响。
Sep, 2022
该论文针对机器学习中的偏见问题,提出了 “权力感知视角” 的研究并分析数据质量、数据工作和数据文献等领域的因素,以反映数据设计和生产的社会背景。
Sep, 2021
本文探讨公平和道德人工智能的方法,引入了一组三部分的决策工具包,涉及公正 AI / ML 的相关问题,并主张采用特定的推理和创造性的方法去解决负责任的算法 / 数据驱动系统面临的各种问题。
Mar, 2023
本文阐述了人类认知偏差在人工智能领域中的重要性,并提出了在学习算法中结构上实施认知偏差以及为选择具有道德价值的社会或行为特征的偏向训练刺激应用过滤机制,结合七个具体的偏见实现情景案例,将来自认知科学和伦理学的启示应用于人工智能领域,是对重新评估机器偏见道德意义的探索和实施认知偏差到机器中的首次尝试。
Mar, 2022
本文阐述了机器学习中为何无法完全消除偏见,并提出一种端到端的方法论,将道德原则转化为机器学习开发实践,并支持团队逐步处理机器学习系统中的偏见,以及指南如何向用户解释这种不完美的权衡。
Mar, 2023
本文运用动态系统理论对基于机器学习的决策制定流程中的不同类型的反馈循环进行分类,为研究反馈循环提供了一个统一而有原则性的框架;通过定性分析和推荐系统的模拟示例,我们还发现了在 ML 偏见中存在哪些有可能会持续、加强或减少。
May, 2023
本文旨在调查研究自动化决策系统中机器学习算法存在的偏差及其与公平、隐私和分类准确性之间的关系,并综述了处理公平 - 准确性权衡的不同方法。作者通过实验分析了公平度量和准确度在现实世界场景中的关系。
Sep, 2022