应对联邦学习中标注质量差异
本篇论文提出了一种名为 FedCNI 的方法,通过使用噪声鲁棒局部求解器和强健的全局聚合器,在 Federated learning 的小规模本地数据集中解决标签噪声和类别不平衡带来的挑战,并在混合异构 FL 场景中实现了比现有技术更好的性能。
Apr, 2023
采用新的真实数据分布,提出一种名为 FedIIC 的隐私保护框架,该框架通过类内对比学习和共享全局样本的类间对比学习进行特征提取器的校准来缓解训练造成的偏差,并使用考虑难度的逻辑调整构造 softmax 交叉熵损失以确保所有类别的平衡决策边界。在公共可用数据集上的实验表明,FedIIC 在处理两种耦合问题的同时,具有更优越的性能。
Jun, 2022
本文针对联邦学习中数据标签噪声的影响,在 MNIST 和 CIFAR-10 数据集上进行了实验和理论分析,发现标签噪声会导致全局模型的准确度线性下降、训练收敛速度变慢且容易过拟合。
Nov, 2022
用于解决联邦学习中数据隐私问题导致的设备端数据无法被中心服务器使用的问题,本文提出了一种基于估计方案的设备选择算法,以最小化类别不平衡来提高联邦学习全局模型的收敛性能。
Nov, 2020
我们提出了一种新的客户端选择方案来增强收敛性,通过优先考虑快速 UAV 和高可靠性评分,同时从训练中排除恶意 UAV,通过实验评估了该方案在不同攻击场景中的抵抗性和模型准确性,并展示了与基准方法相比所提出方法的性能优势。
Dec, 2023
本研究提出了三种预处理和处理方法以及实验验证,以减轻联邦学习中的偏见和数据异构性对模型性能、公平指标和偏见学习模式的影响,结果表明这些方法即使在当事方数据分布不均或只有 20% 的当事方采用这些方法时也是有效的。
Dec, 2020
提出了一种基于边缘计算场景的去中心化区块链联邦学习(FL)结构,利用区块链提高 FL 结构的安全性,并应用区块链创建 FL 的奖励机制以实现训练者的激励策略。
Nov, 2023
提出了一种新的联邦学习方案,其中服务器与本地模型合作,通过交换类别的中心来保持一致的决策边界,实现了在网络中使用带有给定噪声的标签的一致决策边界。同时,还提出了选择有自信的样本来更新模型以及全局引导的伪标签方法来更新不自信的样本标签。在嘈杂的 CIFAR-10 数据集和 Clothing1M 数据集上的实验证明,该方法在使用有噪声的标签的联邦学习中非常有效。
Dec, 2020
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
Jul, 2023