社会技术系统中降低学习算法歧视以促进社会公益
机器学习和深度学习的最新进展使得算法公平成为一个关注焦点,引发对影响某些个体或群体的歧视性决策的担忧。本调研综述基于 “容忍度” 提出了一个新的分类系统,揭示了算法决策中公平的微妙性。通过分析多个行业,我们的系统性综述揭示了算法决策与社会公平之间的关键见解。通过综合这些见解,我们勾勒出一系列新兴挑战,并提出未来研究和政策制定的战略方向,以推动该领域朝着更加公平的算法系统发展。
Apr, 2024
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
本文呈现了通过定量和模拟建模分析使用系统动力学了解人工智能种族偏见和对健康不平等影响的结果和见解,并强调将数据和医疗保健讨论集中于人们及其医疗和科学体验,以及认识算法操作的社会背景的重要性,社区创伤的集体记忆是寻求治疗和体验有效治疗的内生驱动因素,这些因素对不同种族群体的初值条件具有明显的不平等性。
May, 2023
本研究提出了一种基于软件工程原理的人工智能框架,用于在保证医疗保健公平的同时识别和缓解数据和模型中的偏见和歧视,通过案例研究表明数据中的系统性偏见会导致模型预测中的偏差增大,并提出了机器学习方法来预防这种偏见。未来的研究目标是在实际的临床环境中测试和验证所提出的 ML 框架,以评估其在促进健康公平方面的影响。
May, 2023
这篇文章介绍了机器学习中的社会偏见和公平性问题,总结了预处理、处理和后处理等多种方法,包含二分类、回归、推荐系统、无监督学习和自然语言处理等多个方面,同时提供了多个开源库。最后,列举了公平性研究的四个难题。
Oct, 2020
本篇论文利用复杂自适应系统、协作因果理论形成和以社区为基础的系统动力学三种方法来帮助人们更好地理解、识别和表达社会背景,提出了如何通过系统论方法来改进机器学习的公平性,包括将机器学习公平性的抽象范围扩展至社会背景等方面,以实现公平和包容的机器学习产品的开发。
Jun, 2020
通过对 5 个经济合作与发展组织国家的 27 名公共部门机器学习从业者进行访谈,本文探讨了在算法决策应用,如税收、司法和儿童保护中如何理解和注入公共价值观。结果显示出在当前可用、透明和 “区分度感知” 的机器学习研究中,缺乏组织和机构现实、限制和需求,存在设计机会,如支持次要数据来源中概念漂移的追踪和构建可用的透明度工具,以识别风险并整合领域知识,旨在支持管理人员和公共服务的 “一线官僚”。我们最后概述了这些高风险应用中的伦理挑战和未来合作方向。
Feb, 2018
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
研究如何通过包含公平性在目标函数中来解决机器学习中涉及敏感特征的不公平性问题。提出了基于新的公平分类框架的新型公平回归和降维方法,并通过使用 Hilbert Schmidt 独立性准则作为公平项,实现了线性和非线性问题的评估。
Oct, 2017