该研究探讨了预测模型多样性对公平性的影响,发现在多个同等效果的模型中选择对于个人可能具有不利影响,而单纯技术手段无法解决这种问题。
Mar, 2022
在一个综述中,作者回顾了交叉公平的最新进展并提供了分类法和矫正算法以缓解交叉偏差,最后指出研究者未来的研究方向和挑战。
May, 2023
机器学习中的公平干预可能会加剧预测复杂性,而提出了一种可应用于任何公平干预的集成算法来解决挑战并确保更一致的预测。
Jun, 2023
研究了 Kearns 等人提出的富子群公平概念及其算法,经过对四个真实数据集的大量实证评估,证明其可行性和有效性。
Aug, 2018
介绍了一种名为 Welfare-Equalizing 的公平算法,旨在保护受保护群体。该方法提供了一种公平性数据分类的统一框架,以及一种计算最优分类器的算法。
May, 2019
本研究使用影响函数(influence function)的概念研究了在实例级别强制公平约束时,训练示例的影响,提出了一种公平性影响函数。通过排名它们的影响分数,确定可能导致模型歧视的可疑培训示例,进行了大量实验并得出结论,仅在重要数据示例的子集上训练可以在准确性与公平性之间进行权衡。
Jun, 2022
本文研究关于机器学习中的公平性问题,针对多种敏感属性,提出了应对交叉性公平性偏差的方法,定义了一系列评估数据或模型输出结果公平性的指标,并开发了后处理技术来减轻分类模型的交叉性偏差。这些技术不依赖于底层模型的任何假设,并可以保持公平性和预测性能的平衡。最后,展示了在实际数据集上提出的方法的有效性。
Nov, 2019
本研究提出了两种子群公平和瞬时公平的概念,解决了时间序列预测中的偏差问题,并使用凸化层次结构全局收敛优化方法来证明我们的方法的有效性。
Sep, 2022
本文提出了一种新型的随机子集选择框架,用于解决机器学习算法中存在的偏见或歧视问题,该框架结合了群体公平和最优化的因素,具有广泛的应用前景和优化效果。
Apr, 2023
我们提出了一种通用诊断方法,可以系统性地表征组公平性中的权衡,并通过在混淆矩阵中考虑受保护属性的值来实现多个权衡的优化。这种方法有助于重新设计公平的分类器。在合成和真实数据集上,我们演示了我们的诊断工具的应用情况,尤其是在理解准确性和公平性之间的权衡方面。
Apr, 2020