公正的对抗梯度提升树
本文研究了树模型中对抗样本和模型稳健性的问题,并提出了一种优化决策树构建过程的算法,通过在最坏情况下的输入特征扰动下优化性能,可以显著提高树模型对抗样本的稳健性。
Feb, 2019
研究机器学习如何处理公平性和防止基于敏感属性的预测性歧视问题,并提出一种名为 AdaFair 的基于 AdaBoost 分类器的方法,该方法显式地处理类别不平衡并在维持分类准确性的同时优化公平性,实验证明其在平衡错误方面比现有的公平性方法表现显著好 25%。
Sep, 2019
研究三种经典机器学习算法(自适应 boosting,支持向量机和逻辑回归算法)在算法公平性方面的应用,旨在通过改变决策边界以减少对某一保护组成员的歧视。提出的方法在准确度和低歧视方面与先前的算法相当或优于,同时允许快速透明地量化偏差和误差之间的权衡。通过新的公平度量(RRB),结合偏差和准确性来提供算法公平性的更完整的图景。
Jan, 2016
本文首次开发了一种公平决策树归纳技术,即 “公平森林”,旨在解决机器学习算法中可能存在的公正性问题,并比其他替代方案提供了更高的准确性和公平性。作者还引入了针对多项和连续属性的新公平度量,并提出了一种全新的评估算法的评估方法,该方法考虑到整个数据集而不仅仅是特定保护属性。
Dec, 2017
介绍一种新的针对敏感特征的机器学习公平性框架,通过去除敏感信息和最小化敏感特征的边际贡献来改善模型的公平性。实验结果表明,该模型在公平性指标和预测性能方面均优于相关最先进方法。
Sep, 2019
提出了一种新颖的公平 AdaBoost(FAB)方法,通过公平感知的权重调整技术实现公平分类,并在维持 AdaBoost 的优势的同时,几乎不牺牲预测性能。在实际数据集上进行的实证结果表明,FAB 在公平性和准确性的权衡方面优于同类方法。
Jan, 2024
该研究提出了 AdaFair 算法,它可以有效地处理数据驱动的人工智能系统中的歧视问题,在平衡不足的情况下实现了性别、种族等保护属性的公平,同时保持预测性能。
Jan, 2022