GFCL: 一种基于 GRU 的联邦式连续学习框架,用于对抗 IoV 中的数据毒化攻击
本文通过实验研究了 Sybil-based 数据恶意攻击对基于深度强化学习技术的动态服务部署在 IoT 中的影响,结果表明在网络中存在 Sybil-based 数据恶意攻击时,性能会显著受到影响。
Aug, 2021
本文研究车联网应用中的联邦学习与集中式学习的可行性,探讨了基于图像数据集的目标检测,分析了数据标注、模型训练的挑战,以及数据速率、可靠性、隐私和资源管理等通信方面的问题,并为联邦学习在车联网领域中的未来研究方向提供了展望。
Jun, 2020
本研究探讨了分布式学习系统中的毒化攻击和防御交互,特别是在使用深度学习进行无线信号分类的下一代通信(NextG)的背景下。通过利用地理分散的客户端,全局模型的训练在无需客户端交换数据样本的情况下进行,用于保护现有用户识别,促进频谱共享。然而,在这种分布式学习系统中,恶意客户端的存在会增加通过伪造本地模型交换来操纵全局模型的风险。为了解决这一挑战,本文采用主动防御机制,对参与分布式学习系统的客户端的准入或拒绝进行明智决策。结果提供了保护 NextG 通信中分布式学习系统免受毒化攻击的新型操作模式洞察,通过量化攻击和防御在 NextG 通信背景下的性能。
Dec, 2023
通过观察数据分布的稳定性,我们提出了 AdaAggRL,一种基于强化学习的自适应聚合方法,用于防御复杂的恶意攻击。实验证明,该防御模型在四个真实数据集上显著优于广泛采用的防护模型。
Jun, 2024
本文介绍了一种名为 GRNN 的新方法,该方法利用了生成对抗网络(GAN)来恢复共享梯度中的隐私信息。结果表明,这种方法在图像分类任务中表现出更好的稳定性、更强的鲁棒性和更高的准确性,同时无需全局 FL 模型的收敛要求,具有非常多的实用价值。
May, 2021
本文提出了一个基于联邦学习的入侵检测框架,通过使用 CIC-IDS 2017 数据集,在 Internet of Vehicles (IOV) 中实现去中心化机器学习,采用 SMOTE 来处理类别不平衡,异常观测值检测来识别和移除异常观测值,以及超参数调整来优化模型性能,并通过各种性能指标评估了该框架,展示了其在侦测入侵方面的效果,并能保护敏感数据同时实现高入侵检测性能。
Nov, 2023
通过结合图神经网络和联邦多智能体强化学习,提出了一种分布式联邦学习框架用于优化保持信息新鲜度的道路场景下的多智能体卸载决策,该方法在模拟实验中验证了优于其他方法的性能。
Jul, 2024
本文提出了一种基于联邦学习的车辆轨迹预测算法 FL-TP,以应对物联网汽车系统中的网络安全问题,并通过公开可用的 VeReMi 数据集进行了测试,结果表明,该算法可以在最大的网络攻击渗透性场景下,将攻击检测和轨迹预测的准确性提高达 6.99%和 54.86%。
Jun, 2023
利用深度自编码器方法检测基于良性网络流量模式的攻击,通过联邦学习训练侵入检测系统,同时保护 CAVs 的隐私并减少通信开销。在最新的网络流量数据集上进行的深入实验表明,该系统实现了高检测率,并最小化误报率和检测延迟。
Jul, 2024