隐私、公平和预测性能动态的三重结
机器学习在高风险决策中的应用日益增多,如大学招生、贷款归因或再犯预测。因此,确保学习到的模型可以由人类用户审计或理解,不会产生或重现歧视或偏见,并且不会泄露关于其训练数据的敏感信息,变得至关重要。实际上,可解释性、公平性和隐私性是负责任的机器学习发展的关键要求,而过去十年来一直对它们进行了广泛研究。然而,它们主要被独立考虑,而在实践中,它们之间存在着相互作用,无论是积极的还是消极的。在这篇《知识系统化》论文中,我们对这三个期望之间的相互作用进行综述,并总结了每个成对相互作用的共性和紧张关系。这些发现突出了几个基本的理论和经验冲突,同时也表明,要在保持高水平效用的同时综合考虑这些不同要求是具有挑战性的。为了解决这个问题,我们还讨论了可能的调和机制,表明一个仔细的设计可以成功地处理这些不同的关注点。
Dec, 2023
机器学习模型在决策和政策操作中被部署为核心组件,对个人生活产生直接影响。为了在道德上行事并遵守政府监管,这些模型需要做出公平的决策并保护用户的隐私。然而,这些要求可能会导致模型性能下降,与其潜在的偏向和隐私泄露对应模型相比。因此,公平性、隐私性和机器学习模型性能之间的权衡成为一个问题,从而需要一种方法来量化这种权衡以便进行部署决策。在这项工作中,我们将这种权衡解释为一个多目标优化问题,并提出了 PFairDP,这是一个使用贝叶斯优化的流水线,用于发现在公平性、隐私性和机器学习模型效用之间的帕累托最优点。我们展示了如何使用 PFairDP 复制通过手动约束设置过程实现的已知结果。我们进一步通过对多个模型和数据集进行实验,证明了 PFairDP 的有效性。
Nov, 2023
采用中立性原则,提出一个用于机器学习的管道的设计,在优化准确度的同时,不会偏向公平性或隐私,使用方法 FairDP-SGD 和 FairPATE 得到真正的 Pareto 前沿线。
Feb, 2023
本文旨在调查研究自动化决策系统中机器学习算法存在的偏差及其与公平、隐私和分类准确性之间的关系,并综述了处理公平 - 准确性权衡的不同方法。作者通过实验分析了公平度量和准确度在现实世界场景中的关系。
Sep, 2022
隐私和公正是负责任的人工智能和可信机器学习的两个关键支柱。本文对隐私和公正在机器学习中的影响进行了综述,包括有监督学习、无监督学习、半监督学习和强化学习,并提出了同时实现这两个目标时所面临的研究挑战,特别关注大规模语言模型。
Jul, 2023
本文介绍了一种新的处理公平性的方法,通过建立一个随机多目标优化问题,得到一组准确且平衡的 Pareto 前沿,以此权衡准确度和公平性,以更高效地处理大量的流数据。
Aug, 2020
本文提出了一种用于优化 AI 模型的框架和一些示例方法,根据人类政策制定者的偏好来平衡公平性、模型准确性等目标之间的平衡,以此来减少偏差和不公平。
Feb, 2020