低数据环境下公正主动学习
本文研究使用基于不确定性的主动学习启发式方法(如 BALD)训练的模型是否比使用独立同分布(i.i.d.)采样训练的模型在决策中对受保护类别具有更高的预测平等性,并探讨了算法公平性方法(如 GRAD 和 BALD)的交互作用,表明在大多数基准和度量标准上交互作用进一步提高了结果。
Apr, 2021
该论文提出了简单而高效的方法来减轻主动学习中的采样偏差,同时实现最先进的精度和模型鲁棒性。通过引入有监督对比主动学习和选择具有多样的特性表示的信息性数据样本的无偏查询策略,我们的方法:SCAL 和 DFM,实验表明,所提出的方法降低了采样偏差,在主动学习设置中,查询计算速度比基于贝叶斯的对抗式学习快 26 倍,比 CoreSet 快 11 倍。所提出的 SCAL 方法在对抗性数据集转移和预测真实分布方面具有显着的优势。
Sep, 2021
使用机器学习来减少公平性差异和确保准确性在真实世界中的平衡是政策制定者关注的问题,本文通过实证研究发现,在教育、心理健康、刑事司法和住房安全等领域中使用后期处理措施来解决公平性问题,能够显著提高公平性而不牺牲准确性,实现在政策中使用机器学习的目的。
Dec, 2020
主要介绍了主动学习策略在解决二分类问题中的应用,提出了一种基于偏移正态分布采样函数的方法,通过限制噪声和正类标签选择,提高了 20% 到 32% 的成本效率。
Mar, 2024
最近,发展能够促进公平性的机器学习(ML)模型引起了广泛关注,即消除对特定群体(例如来自特定人口统计群体的个人)的偏见预测。本文定义了具有有限训练样本的公平感知学习任务,即 “公平少样本学习” 问题,并提出了一种新颖的框架,通过在不同的元训练任务中积累公平感知知识,然后将这些学到的知识推广到元测试任务中。此外,我们在三个真实世界数据集上进行了大量实验证明我们的框架相对于现有基线算法具有卓越的优势。
Aug, 2023
本文探讨了主动学习中样本标注代价昂贵导致的偏差问题并提出了一种新的校正方法,解释了为何忽略这种偏差也能带来一些经验上的成功,尤其对参数众多的神经网络等少量数据训练情境下,这种偏差反而有益。
Jan, 2021
在数据分析的开始阶段,尤其是在数据集筛选和标记过程中,存在数据倾向性可能导致不公平的机器学习模型。为了解决这个问题,我们提出了一种可扩展的公平主动学习框架 Falcon,该框架采用数据为中心的方法,通过策略性样本选择改进机器学习模型的公平性。实验证明,Falcon 在公平性和准确性方面显著优于现有公平主动学习方法,并且更加高效。
Jan, 2024