Dec, 2023

SoK: 支配三角形 -- 机器学习中公平性、解释性和隐私之间的相互影响

TL;DR机器学习在高风险决策中的应用日益增多,如大学招生、贷款归因或再犯预测。因此,确保学习到的模型可以由人类用户审计或理解,不会产生或重现歧视或偏见,并且不会泄露关于其训练数据的敏感信息,变得至关重要。实际上,可解释性、公平性和隐私性是负责任的机器学习发展的关键要求,而过去十年来一直对它们进行了广泛研究。然而,它们主要被独立考虑,而在实践中,它们之间存在着相互作用,无论是积极的还是消极的。在这篇《知识系统化》论文中,我们对这三个期望之间的相互作用进行综述,并总结了每个成对相互作用的共性和紧张关系。这些发现突出了几个基本的理论和经验冲突,同时也表明,要在保持高水平效用的同时综合考虑这些不同要求是具有挑战性的。为了解决这个问题,我们还讨论了可能的调和机制,表明一个仔细的设计可以成功地处理这些不同的关注点。