利用多目标元模型优化机器学习中的公平性权衡
本文介绍了一种新的处理公平性的方法,通过建立一个随机多目标优化问题,得到一组准确且平衡的 Pareto 前沿,以此权衡准确度和公平性,以更高效地处理大量的流数据。
Aug, 2020
探讨了多目标优化的用户偏好以及与公平性在机器学习和多目标优化中的关系,介绍了公平性感知多目标优化的代表案例,并进一步阐述了公平在传统多目标优化、数据驱动优化和联邦优化中的重要性和挑战。
Jul, 2022
本文提出一种基于多目标进化学习框架的方法,用于优化机器学习模型的准确性和多个公平度量,并构建集合以平衡不同度量,并通过实验结果证明与其他消除不公平的方法相比,我们的算法能够为决策者提供更好的准确性和多个公平度量之间的权衡。
Oct, 2022
本文讨论了多任务学习中组公平性对于准确性的影响,提出了一种新的测量多维 Pareto 前沿的公平性 - 准确性权衡的方法,并提出了一种多任务感知公平性(MTA-F)方法来改善多任务学习中的公平性。实验结果表明,该方法的有效性。
Jun, 2021
本文提出一种可微分度量方法来优化神经分类模型的团体公平性,继而展示了两个适用于不同组神经分类模型的 Pareto 最优化参数化的 MOO 框架,并在 Hate Speech Detection 任务上获得了优于先前方式的实证结果。
Apr, 2022
提出了一种新的在线元学习算法 FFML, 该算法能够在保证分类准确性的同时,学习与公平相连的模型参数。通过在三个真实世界数据集上进行实验,得到了具有显著优越性能的结果。
Aug, 2021
本文考虑了机器学习中可推广的偏见缓解技术的需求,由于对公平性和歧视的担忧,这些技术在数据驱动的决策过程中得到了各个行业的应用。尽管许多现有的机器学习偏见缓解方法在特定情况下取得了成功,但它们常常缺乏可推广性,不能轻松地应用于不同的数据类型或模型。此外,准确性与公平性之间的权衡仍然是该领域的一种根本张力。为了解决这些问题,我们提出了一种基于多任务学习的偏见缓解方法,利用了多目标优化中的 Monte-Carlo dropout 和 Pareto 优势的概念。该方法在不使用敏感信息的情况下同时优化准确性和公平性,提高了模型的可解释性。我们在来自不同领域的三个数据集上测试了这种方法,并展示了它如何提供模型公平性和性能之间的最理想权衡。这使得我们能够在特定领域进行调优,其中一个指标可能比另一个更重要。通过我们在本文中介绍的框架,我们旨在增强公平性和性能之间的权衡,并为机器学习中偏见缓解方法的可推广性问题提供一个解决方案。
Apr, 2024
本文介绍了一个新的元分类算法来解决涉及多个非不相交敏感属性的具有公正性限制的分类问题,该算法具有可证明的保证,该算法能够实现几乎完美的公平性,而且所带来的准确性损失通常很小。
Jun, 2018
本文介绍了 fairml R 包,该包旨在通过经典统计模型和惩罚回归结果(岭回归)实现公平和可解释的机器学习模型,并提供模型估计,选择和验证功能,以及诊断图。
May, 2023