- AAAIFed-QSSL: 基于位宽和数据异构性的个性化联邦学习框架
通过使用分布式自监督学习以及低位量化,Fed-QSSL 是一个旨在解决联邦学习系统中异质性的方案,并通过解量化、加权聚合和重新量化在客户端设备上创建个性化的模型,验证了该算法的有效性,并对低位训练对学习模型的收敛性和健壮性进行了理论分析。
- AAAI关于服务器动量在联邦学习中的作用
提出了一种服务器动量的通用框架,用来解决联邦学习中由于客户端系统和数据异质性引起的收敛问题,并通过严密的收敛分析和大量实验证实了该框架的有效性。
- 改进后验网络的个性化联邦学习的狄利克雷基础不确定性量化
通过对预测的不确定性进行精确建模,本研究提出了一种新的联邦学习方法,能够选择在特定输入点上表现更好的全局模型和个性化模型,该模型在现实世界的图像数据集上进行的全面实验评估表明其在存在超领域数据的情况下表现优异,并且在标准场景中与最先进的个性 - 将倾向分数方法与变分自编码器相结合,用于生成具有潜在子群的合成数据
使用变分自编码器和倾向性评分回归相结合的方法生成合成数据,使其能够忠实地反映临床队列的结构和异质性。
- 无协调的复杂网络分散式联邦学习:克服异构性
在高度普及的边缘场景中,缺乏中央控制器和预定的设备连接导致了复杂的网络结构,我们提出了一种通信高效的分散式联邦学习(DFL)算法来解决由数据和不同训练历史引起的异构学习难题,研究结果表明,与竞争方法相比,我们的解决方案能够训练出更好的本地模 - FedGeo: 隐私保护用户下一位置预测与联邦学习
用户下一位置预测是一项不可或缺的任务,先前的研究使用大规模轨迹数据集在单个服务器上取得了显著成果,但由于隐私问题的限制,联邦学习作为解决个人隐私问题的方法已经出现,并采用联合训练多个客户端、聚合它们的策略,本研究提出了专门用于用户下一位置预 - MMFedRec+:增强联邦推荐系统的隐私保护与异构性处理
FedRec + 是一个用于增强隐私保护和解决异构性挑战的 Federated Recommendation Systems(FRS)集成框架,通过基于特征相似性的最优子集选择生成近似最优的伪评分,利用用户本地信息,减少噪声,有效降低沟通成 - 面向协作边缘平台的自适应工作负载分配用于重视准确性的深度神经网络推理
在本研究中,我们提出了一种自适应工作负载分配方法,联合考虑边缘设备的节点异构性以及应用特定的准确性和性能要求,通过组合优化异构感知的工作负载分割和动态准确配置 DNN 模型,以确保性能和准确度保证。我们在 Odroid XU4、Raspbe - 多元时间序列预测的进展:全面基准测试和异质性分析
使用 BasicTS 基准测试来解决多元时间序列预测中公正对比问题,并通过对丰富的多元时间序列数据集进行详尽的性能和效率比较,为研究人员选择和设计多元时间序列预测模型提供洞见。
- RHALE:稳健且异质感知的累积局部效应
提出了一种名为 “健壮且考虑异质性积累局部影响力 (RHALE)” 的解释性方法,旨在解决累积局部影响力(ALE)方法的两个局限性:无法量化局部效果与平均效果之间的异质性以及对特征域进行固定大小的分区时可能导致不一致估计的问题。通过使用标准 - 通过梯度协调解决异构联邦学习中的非 IID 问题
该论文通过梯度冲突现象研究了联邦学习中来自多个客户端的异构性问题,并提出了一种简单有效的方法 FedGH,通过梯度协调来解决此问题。实验证明,FedGH 在不同基准和非 IID 场景中能显著提升现有的联邦学习方法,尤其在存在更强异构性的情况 - 个性化 Tucker 分解:在张量数据上建模共性和个性
我们提出了个性化的 Tucker 分解 (perTucker),来解决传统张量分解方法在捕捉不同数据集间异质性方面的局限性。通过将张量数据分解为共享的全局分量和个性化的局部分量,学习不同数据集间的独特和共同表示,我们证明了 perTucke - FedCiR:面向联邦非 IID 特征的客户端不变表示学习
提出了一种名为 FedCiR 的客户端不变表示学习框架,通过改进表示和标签之间的互信息项,以及减少客户集和表示之间在标签条件下的互信息项,实现提取信息性和客户端不变的特征,通过两个正则化项来限制近似全局表示分布的互信息项以弥补缺失的真实全局 - 资源有效的异构和资源受限环境下的联邦学习
在本文中,我们提出了一种名为 RE-FL 的新方法,该方法解决了资源受限设备中计算和通信挑战的问题。我们的可变修剪技术通过根据每个客户端的计算能力进行修剪来优化资源利用。我们还使用知识蒸馏来减少带宽消耗和通信轮次。对图像分类任务的实验结果证 - 解决联邦学习中的计算异构性:几个理论思路
机器学习的未来在于边缘计算,用于数据收集和训练,联邦学习是实现这一目标的一种方法。本文提出了一种新的聚合框架,用于解决联邦优化中的计算异构性问题,包括异构数据和本地更新,并从理论和实验的角度进行了广泛的分析。
- 使用深度展开网络改进联邦聚合
提出了一种基于深度展开网络(DUN)的技术,通过学习自适应权重来消除异构性的不利影响,从而有效地解决了参与客户端异构性和 FL 环境下的质量感知聚合问题。
- 通过稳定性理解联邦学习的泛化:异质性很重要
本文针对联邦学习中算法稳定性的概念,研究了 FedAvg、SCAFFOLD 和 FedProx 在凸性和非凸性损失函数下的通用性能,并探讨了客户端数据的异质性和算法收敛行为对模型通用性能的影响。
- 像医学住院医师一样培训:通过上下文先验学习的通用医学图像分割
提出了一种基于上下文先验学习的通用医学图像分割方法 Hermes,适用于不同临床目标、身体部位和图像模态,并在七个数据集上证明了其性能优异,并且具有传输学习和概括到不同下游任务的强大能力。
- 自适应自蒸馏下的异构数据联邦学习
提出了一种新的自适应自蒸馏(ASD)正则化技术,针对联邦学习(FL)中不同客户端观察到的本地数据分布的异质性问题,在客户端上进行训练模型并适应性地调整以接近全局模型,此技术可用于现有的状态 - of-the-art FL 算法中,显著提高算 - 基于预测共识的协作学习
本文提出了基于蒸馏的方法,并采用信任加权方案,使用伪标签的无标签辅助数据促进合作学习,以达成对辅助数据的标签共识。我们证明了该方案相对于本地训练能显著提高模型性能,同时也可以识别和缓解对于众多模型的负面影响。在个体数据训练以及模型架构存在异