AVDDPG: 自主编队控制中的联邦强化学习
本论文提出了一种新的基于大规模无线连接的联邦学习框架,用于设计连接和自动驾驶车辆(CAVs)的自主控制器。使用联合训练模型,应对 CAVs 参与联邦学习过程的不同和数据质量的多样化,提出了动态联邦近端算法(DFP)。在此基础上,设计了基于合同理论的激励机制,以提高 FL 的收敛速度。仿真结果表明,DFP 控制器可以精确跟踪目标 CAV 在不同交通场景下的车速。
Feb, 2021
在 5G 移动通信时代,研究聚焦于无人机和移动边缘计算技术方面出现了显著增长。本研究提出了一种名为个性化联邦深度强化学习(PF-DRL)的新解决方案,用于多无人机轨迹优化。模拟结果表明,该算法具有更快的收敛速度和改善服务质量,优于其他基于深度强化学习的方法。
Sep, 2023
机器学习在互联和自动化车辆(CAV)的关键任务中被广泛应用,然而,由于对车辆数据进行模型训练,导致了与车辆用户隐私和通信开销相关的重大挑战。联邦学习是一种分散的机器学习方法,使多个车辆可以协作开发模型,从不同的驾驶环境中进行学习,提高整体性能,并同时确保本地车辆数据的隐私和安全。本论文综述了联邦学习在 CAV 中应用的进展,分析了中心化和分散化联邦学习框架的关键特性和方法学,并回顾了与 CAV 中联邦学习相关的多样数据来源、模型和数据安全技术,强调它们在确保隐私和机密性方面的重要性。其次,探讨了联邦学习的特定应用,并提供了每个应用所采用的基本模型和数据集的见解。最后,列出了 FL4CAV 面临的现有挑战,并讨论了进一步提升 FL 在 CAV 背景下的效果和效率的潜在方向。
Aug, 2023
本文提出了一种基于移动代理的方法,在 Webots 中用 Tartarus 来去中心化联邦学习,实现在连接机器人的情况下的去中心化联邦增强学习(dFRL),在基于 Q 学习和 SARSA 的实验中,通过聚集它们对应的 Q 表,证明了在机器人领域使用去中心化联邦学习的可行性。
Jul, 2022
本文研究车联网应用中的联邦学习与集中式学习的可行性,探讨了基于图像数据集的目标检测,分析了数据标注、模型训练的挑战,以及数据速率、可靠性、隐私和资源管理等通信方面的问题,并为联邦学习在车联网领域中的未来研究方向提供了展望。
Jun, 2020
在车联网(V2X)网络中,我们通过联邦强化学习(FRL)框架探索资源分配,并使用非精确交替方向乘子法(ADMM)实现了算法 PASM,在 V2X 网络中解决资源分配问题,并与基线方法进行了比较。
Oct, 2023
本文介绍了联邦强化学习 (Federated Reinforcement Learning, FRL) 的全面调查,重点介绍了 FRL 作为一种新的方法,其基本思想是利用联邦学习来提高 RL 的性能,同时保护数据隐私。根据框架中代理的分布特征,FRL 算法可分为两类,即水平联邦强化学习 (HFRL) 和竖直联邦强化学习 (VFRL)。最后,介绍了几个重要的研究方向以解决 FRL 中存在的问题。
Aug, 2021
本文针对不断增长的城市人口和道路上日益增加的车辆,以保证交通的高效管理和安全成为了一个重要挑战。为了解决这些问题,本文以联邦深度强化学习(FDRL)技术为基础,对车辆避碰控制进行了全面研究。我们的主要目标是最小化行程延误,提高车辆的平均速度,同时注重安全和数据隐私保护。为了达到这一目标,我们针对本地模型深度确定性策略梯度(DDPG)和全局模型联邦深度确定性策略梯度(FDDPG)进行了比较分析,以确定它们在优化车辆避碰控制方面的效果。研究结果表明,相比于 DDPG 算法,基于 FDDPG 算法能更有效地控制车辆,避免碰撞。尤其是,基于 FDDPG 的算法在减少行程延误和提高平均速度方面取得了显著成效。
Aug, 2023
因为传统的车联网在上传到云处理中会有延迟,所以为了解决这一问题并提高系统性能,引入了边缘计算,在此基础上采用联邦学习,其中异步联邦学习则采用深度强化学习作为车辆的选择问题模型,模拟结果表明有效提高了全局模型聚合的准确性。
Apr, 2023