云机器人系统导航的生涯联合强化学习:一种学习架构
本文介绍了一种新颖的基于云机器人系统的知识融合和转移框架 FIL,该框架通过融合来自本地机器人的异构知识并生成服务请求机器人的引导模型来实现云机器人系统中的姿态学习,同时还引入了一种知识转移方案来促进本地机器人从云中获取知识,最终实验结果表明 FIL 可以提高云机器人系统中本地机器人的姿态学习效率。
Dec, 2019
本文提出了一个零样本泛化的机器人运动规划学习控制策略的问题,在新环境中部署学习策略时不需要数据收集和策略调整;开发了一个联邦强化学习框架,可以实现多个学习者和中央服务器(云)协作学习,而无需共享原始数据;在每次迭代中,每个学习者上传本地控制策略和相应的估计归一化到达时间到云端,云端计算出多个学习者之间的全局最优解并广播最优策略给学习者;每个学习者从云端和本地控制策略中选择下一次迭代的策略;所提出的框架利用到达时间和安全性的零样本泛化保证。给出了几乎必定收敛、几乎共识、Pareto 改进和最优间隙的理论保证。通过蒙特卡洛仿真评估了提出的框架。
Mar, 2024
本文提出了一种基于移动代理的方法,在 Webots 中用 Tartarus 来去中心化联邦学习,实现在连接机器人的情况下的去中心化联邦增强学习(dFRL),在基于 Q 学习和 SARSA 的实验中,通过聚集它们对应的 Q 表,证明了在机器人领域使用去中心化联邦学习的可行性。
Jul, 2022
对于基于强化学习的雾计算负载均衡,本文提出了一种终身学习框架,使用轻量级推理模型在部署期间最小化动作延迟,并在环境发生显著变化时进行重新训练,以提高性能、减少训练成本并适应这些变化。与现有文献相比,我们还应用了迁移学习来解决终身学习问题,尤其是在真实环境中从头开始学习时存在的失败概率问题。
Oct, 2023
在 5G 移动通信时代,研究聚焦于无人机和移动边缘计算技术方面出现了显著增长。本研究提出了一种名为个性化联邦深度强化学习(PF-DRL)的新解决方案,用于多无人机轨迹优化。模拟结果表明,该算法具有更快的收敛速度和改善服务质量,优于其他基于深度强化学习的方法。
Sep, 2023
本文介绍了联邦强化学习 (Federated Reinforcement Learning, FRL) 的全面调查,重点介绍了 FRL 作为一种新的方法,其基本思想是利用联邦学习来提高 RL 的性能,同时保护数据隐私。根据框架中代理的分布特征,FRL 算法可分为两类,即水平联邦强化学习 (HFRL) 和竖直联邦强化学习 (VFRL)。最后,介绍了几个重要的研究方向以解决 FRL 中存在的问题。
Aug, 2021
我们提出了一个基于神经辐射场(NeRF)的系统,以生命周期学习的方式使用来自车辆和无人机收集的数据持续构建和维护一张地球规模的地图。为了解决现有的 NeRF 大规模建模存在的可扩展性和可维护性问题,我们提出了一个适用于 NeRF 的大规模建模的联邦学习流程,并针对 NeRF 的模型聚合流程进行了定制,从而允许局部更新。在聚合步骤中,客户端的全局姿态的准确性至关重要。因此,在聚合步骤之前,我们还提出了全局姿态对齐以调整客户端的嘈杂全局姿态。在实验中,我们展示了所提出的姿态对齐和联邦学习流程在大规模场景数据集 Mill19 上的有效性。
Sep, 2023