监督学习的公平感知数据估值
本文研究了使用公平性度量来指导模型的设计和训练的机制,提出了一种简单但可靠的方法,即在训练模型时同时实现公平,并通过详细的技术分析和实验验证了在计算机视觉训练任务中可靠地实现各种公平性度量。
Apr, 2020
使用隐私保护方法进行数据估值的联邦学习研究,借助 Wasserstein 距离提供透明数据评估和有效计算 Wasserstein barycenter 以减少对验证数据的依赖,并通过广泛的实证实验和理论分析展示了该估值指标的研究前景。
Nov, 2023
本文介绍了一种新的数据估值框架,可以在不确定具体学习算法的情况下对数据进行估值,并提出了基于 Wasserstein 距离和敏感性分析的方法来估值,可以检测低质量的数据并在性能方面显著提高。
Apr, 2023
基于自动化决策的大数据和机器学习算法可能导致对某些受保护群体的歧视性决策。既有的公平感知机器学习方法关注于输入数据,学习算法或派生模型的前处理,中断处理或后处理。本文提出的 FAE(公平感知集成)框架结合了数据分析过程中前处理和后处理步骤中与公平相关的干预措施。
Feb, 2020
文章提出了一种灵活的方法来提高人工智能系统的公平性,即针对不同族群的公正性问题,利用对抗性扰动来盲化输入数据中与公平性相关的特征,该方法有效且具有出色的性能。
Mar, 2022
该研究提出了 AdaFair 算法,它可以有效地处理数据驱动的人工智能系统中的歧视问题,在平衡不足的情况下实现了性别、种族等保护属性的公平,同时保持预测性能。
Jan, 2022
本文提出了一种适用于联邦学习的 Shapley 值变体,称为联邦 Shapley 值,它可以计算每个数据源的贡献,能够反映数据源的实际效用并有潜力提高系统的鲁棒性,安全性和效率。
Sep, 2020
数据估值与个人数据所有权、数据保护法规、DeRDaVa 和风险厌恶 / 寻求模型所有者等相关,我们提出了一种数据估值框架 DeRDaVa,并将其推广到 Risk-DeRDaVa,以适应风险厌恶 / 寻求模型所有者的需求,并进行了实证研究。
Dec, 2023
研究机器学习如何处理公平性和防止基于敏感属性的预测性歧视问题,并提出一种名为 AdaFair 的基于 AdaBoost 分类器的方法,该方法显式地处理类别不平衡并在维持分类准确性的同时优化公平性,实验证明其在平衡错误方面比现有的公平性方法表现显著好 25%。
Sep, 2019
通过使用扩散模型为基础的框架 FADM,本文提出了一种从存在偏见的数据集中生成全新的、公平的合成数据,而不是直接引入公平学习算法来解决人工智能决策公正性问题。实验证明,FADM 在下游任务中表现出更好的准确性和最佳的公平性,同时允许对生成样本的类别进行灵活控制。
Jun, 2024