本文提出了 FairFed 算法,该算法针对联邦学习中的群体公平性问题,在保证本地数据隐私的前提下,通过支持灵活的本地去偏差方法,增强了群体公平性,实验结果表明 FairFed 算法比现有的公平 ML 和联邦学习算法更加公平,特别是在数据分布不均的情况下。
Oct, 2021
本文介绍了一种新的联邦学习公平性指标 --minmax 小组公平性,并提出了一种名为 FedMinMax 的算法解决该问题,实验结果表明该算法在不同联邦学习设置下实现了小组公平性和中心化学习算法的性能保证。
研究机器学习的公平性标准,提出一种使用鲁棒优化的新方法来处理受保护群体的嘈杂标签问题,并经实验验证,该方法能更好地保证在真实受保护群体上的公平性标准。
Feb, 2020
本研究旨在探讨有关机器学习模型中特定人群或群体受到偏待的问题以及解决方法,其中我们特别研究了本地模型与全局模型之间公平性的关系,并提出了一种基于惩罚性经验损失最小化的全局公平训练算法,实验证明我们的方法在保持高准确率的同时,相比本地公平训练方法能够更有效地提升公平性。
May, 2023
我们提出了一个群体公平的联邦学习框架,旨在在保护隐私和没有资源利用开销的情况下,减少群体偏见。我们通过利用平均条件概率来计算由异构训练数据得出的跨领域群体重要性权重,使用修改的乘法权重更新方法来优化表现最差的群体的性能。此外,我们提出了正则化技术来最小化最差和最好表现群体之间的差异,同时通过阈值机制确保在减少偏见和群体表现下降之间取得平衡。我们对人类情绪识别和图像分类基准进行了评估,以评估我们的框架在实际异构环境中的公平决策能力。
Sep, 2023
本研究将群体公平性形式化为一个多目标优化问题,并提出一种公平性标准和优化算法,在深度神经网络上进行测试并展示如何减少最坏情况下的分类错误。
Nov, 2020
该研究提出了一种新的联邦学习算法,专门解决群体公平性问题,该算法在统计异质性和不同数量的客户端存在的情况下,既可以定量又可以定性地改善公平性,并几乎不影响准确度,并且与本地差分隐私兼容,通信成本微不足道。这一算法对于提高敏感应用领域(如医疗保健或刑法司法)的联邦学习系统的公平性和有效性具有重要的潜力。
Jul, 2023
本文提出了一种公平感知的不可知联邦学习框架(AgnosticFair),它使用核重新加权函数在损失函数和公平性约束中为每个训练样本分配一个重加权值,从而能够在未知测试数据上实现高精度和公正性保证。实验结果表明,在数据转移的情况下,在两个真实数据集上的效果显著。
Oct, 2020
我们设计了一种单一的群体盲扫描映射,它使源数据中两个群体的特征分布对齐,从而实现了(人口)群体平等,而不需要在映射的计算和使用过程中提供个体样本的受保护属性的值,也不依赖受保护属性的可访问性或估计。
Oct, 2023
提出一个保护机制的通用学习框架,通过扭曲模型参数保护隐私,可以在联合学习中实现个性化的隐私保护与数据价值间的权衡。在理论和实验证明该算法有效,提高了隐私维护的联合学习方法。