ProgFed: 渐进式训练实现有效通信和计算效率高的联邦学习
利用人类反馈进行强化学习(RLHF)通过使用偏好数据集微调预训练的大型语言模型(LLM),使 LLM 能够生成符合人类偏好的输出。为了解决由于隐私问题而不愿共享数据的客户所持有的这些偏好数据集的敏感性问题,我们提出了一个可行的框架,其中客户使用我们提出的 FedBis 协作训练一个具有偏好数据集的二值选择器。通过训练一个经过良好训练的选择器,我们可以进一步增强生成人类优选补全的 LLM。同时,我们提出了一种新颖的算法 FedBiscuit,通过基于他们的偏好将客户组织成平衡和不相交的簇,从而训练多个选择器。与 FedBis 相比,FedBiscuit 在模拟人类对成对补全的偏好上表现出优越性能。我们在联邦人类偏好数据集上进行了广泛的实验,这是第一个解决客户之间的异构数据划分问题的基准,结果表明 FedBiscuit 优于 FedBis,甚至超过传统的集中式训练。
Jul, 2024
本文提出了 Zero-X,一种通过将深度神经网络与开放环境识别相结合的方法,有效检测 IoV 领域中的 0-day 与 N-day 攻击,并使用区块链技术实现可信和分散式的联邦学习,旨在维护隐私和提高检测率。与相关工作的比较表明 Zero-X 框架优于现有解决方案。
Jul, 2024
Venomancer 是一种有效的后门攻击方法,具有不可察觉性和按需目标功能,通过使用视觉损失函数,使毒数据在视觉上与原始数据无法区分,同时能够通过条件对抗训练选择任意目标类别。
Jul, 2024
提出了一种新的联邦学习框架 HypeMeFed,通过将多出口网络架构与基于超网络的模型权重生成相结合,对客户的异构性进行支持;这种方法在异构模型层的特征空间中进行对齐,并解决了在权重聚合过程中的层间信息不一致问题。通过在真实异构设备测试平台上的评估,结果显示 HypeMeFed 相较于 FedAvg 方法提高了 5.12% 的准确度,减少了 98.22% 的超网络内存需求,并比简单的超网络方法加速了 1.86 倍。这些结果表明 HypeMeFed 在利用和吸引异构客户进行联邦学习方面的有效性。
Jul, 2024
该研究介绍了 RISC-V R-extension,一种用于增强边缘设备上深度神经网络处理效率的新方法。该扩展采用了租用流水线阶段和架构流水线寄存器(APR)的特性,优化关键操作执行,从而减少延迟和内存访问频率,通过全面分析,证明了 R-extension 在边缘设备处理中的提升效果,为更加响应和智能的边缘应用铺平了道路。
Jul, 2024
探讨了在联邦学习环境中使用 8 位浮点数(FP8)进行训练的方法,该方法不仅可以有效地训练神经网络并减少计算开销,还能通过显著的权重压缩来减少客户端和服务器之间的通信成本。实验结果表明,与 FP32 基准相比,在各种任务和模型上,我们的方法始终能够至少将通信开销降低 2.9 倍。
Jul, 2024
本文从表示的全新视角探索联邦学习中的贡献评估,并提出了一种用于异构参与者的贡献评估的新方法,引入了一种新的指标 “类别贡献动量”,从个体、相对和整体视角构建和应用该指标,在各种情境下展现了方法的优越性。
Jul, 2024
本论文提出了一种基于联邦学习的隐私保护医学图像分类框架 (FedMIC),通过全局和局部知识使医疗组织从私有数据中获得定制模型,同时减少通信开销和提高效率,提高在资源受限条件下的稳健性和实际适用性。通过使用四个公共医学图像数据集展示了 FedMIC 的有效性。
Jul, 2024
在医学影像分割方面,联邦学习已成为一种引人注目的范式,特别是考虑到日益增长的隐私问题。然而,大部分现有的研究都依赖于对客户端注释的一致性和完整性相对严格的假设。相反,本文强调了医学实践中普遍存在的一个挑战:不完整的注释。这些注释可能引入标注错误的像素,潜在地损害监督学习中神经网络的性能。为了解决这个问题,我们提出了一种名为 FedIA 的新颖解决方案。我们的想法是将不完整的注释概念化为噪声数据(即低质量数据),重点是减轻其负面影响。我们首先使用设计的指标评估客户端注释的完整性。随后,我们增强了具有更全面注释的客户端的影响力,并对不完整的注释进行了修正,从而确保模型在准确的数据上进行训练。通过在两个广泛使用的医学影像分割数据集上展示了我们方法的有效性,优于现有的解决方案。代码可在此 https URL 获取。
Jul, 2024
FedEx 是一种用于加速异构移动设备上联邦学习(FL)训练的新型方法,通过使用局部梯度传输与连续本地计算相互重叠,可以显著减少训练延迟,解决异构环境下的模型陈旧、模型漂移、内存成本和零星问题。
Jul, 2024