Feb, 2024

基于不确定性的离散异构数据隔离中可扩展代码本的联合学习

TL;DR利用分布式数据集的联邦学习(FL)面临数据异质性的挑战。我们提出一种名为基于不确定性的可扩展码本联邦学习(UEFL)的创新而简单的迭代框架,通过动态映射潜在特征到可训练的离散向量,并评估不确定性,专门扩展那些具有高不确定性的数据集的离散化字典或码本,从而在保持最小计算开销的同时明确解决数据分布的多样性,通过在五个数据集上进行实验,我们的方法展现了明显的优越性,实现了显著的准确度提升(3%--22.1%)和不确定性降低(38.83%--96.24%),超过了当代最先进的方法。