公平感知的在线元学习
本文提出了一种针对不断变化的环境的公平在线学习框架 FairSAOML,通过添加长期公平性约束来构建新的遗憾度量 FairSAR 和新的自适应公平在线元学习算法,提高分布不一样时的性能,同时对累积公平性约束和损失遗憾度提供了亚线性的理论上限,实验结果表明本文提出的算法在不同的数据集和环境中均优于当前最佳的在线学习算法。
May, 2022
通过引入长期公平性约束到适应性损失后悔框架中,我们在不断变化的环境中解决了公平感知在线学习挑战,并提出了一种独特的后悔度量 FairSAR。此外,为了确定每个时间步的最优模型参数,我们引入了一种创新的自适应公平感知在线元学习算法 FairSAOML,该算法通过有效管理偏差控制和模型准确性来适应动态环境。该问题被构建为双层凸凹优化,考虑了模型的准确性和公平性属性,理论分析得出了损失后悔和公平性约束累积违规的次线性上界。我们在动态环境中的各种真实数据集上的实验评估表明,我们提出的 FairSAOML 算法始终优于基于最先进在线学习方法的替代方法。
Feb, 2024
通过提出两种算法:公平警示和公平元学习算法,针对分享和传递公平的机器学习工具引发的关注,提出了一个在不同领域中训练一个公平的模型的可解释边界条件和同时平衡公平性和准确性在少量实例中快速微调的公平元学习方法。我们展示了每个模型的实用性,并证明了这两个算法的组合方法在训练新任务的模型时具有解释性的边界条件问题。
Aug, 2019
通过引入一个名为 LoTFair 的在线算法,本研究提出了一个框架,用于在具有时间变化公平性约束的动态决策系统中确保长期公平性。研究证明,LoTFair 可以在保持长期性能的同时,使整体公平性违规变得微不足道。
Jan, 2024
使用多目标优化的方法直接优化错误 - 公平性权衡,并提出了一个灵活的框架来定义权重分类问题和多个代价函数,以减少优化参数,同时在真实问题中获得了更好的错误 / 公平性权衡解决方案。
Apr, 2023
本篇论文介绍了通过元学习实现的公平优化权重算法(FORML),可以通过动态地重新加权数据来平衡过度和欠表示子群的贡献,并提高模型的公平性和鲁棒性,同时保持原本预测指标的准确性,特别适用于图像分类任务,有助于构建更公平的数据集。
Feb, 2022
本文研究了使用公平性度量来指导模型的设计和训练的机制,提出了一种简单但可靠的方法,即在训练模型时同时实现公平,并通过详细的技术分析和实验验证了在计算机视觉训练任务中可靠地实现各种公平性度量。
Apr, 2020
本篇论文提出了一个全面的公平元学习框架 CLOVER,针对电子商务系统中推荐冷启动问题的存在,通过多任务对抗学习,实现个体公平、反事实公平和群体公平,前人工作已经表明推荐系统容易受到偏见和不公平对待,但该框架能够显著提高推荐性能而不影响整体的冷启动表现。
Jun, 2022
本文提出了一种新的机器学习框架,旨在为实现公正和准确性而学习分组,从而减少 ML 模型在特定人群中的偏见和歧视,并在各种数据集上实现了最新技术的改进。
Apr, 2023