关键词federated reinforcement distillation
搜索结果 - 2
- 代理经验回放:分布式强化学习的联合蒸馏
本文介绍了一种名为联邦强化蒸馏(FRD)的通信高效和隐私保护的分布式强化学习框架,并通过模拟实验验证了改进版本的 MixFRD 相对于基准方案具有更好的任务完成时间和通信成本方差减少。
- IJCAI使用代理经验记忆的联邦加强蒸馏
提出了一种隐私保护的分布式强化学习框架 FRD,通过交换代理经验记忆保留真实经验的隐私,基于优势 actor-critic 强化学习架构评估了 FRD 的有效性,并研究了代理内存结构和不同内存交换规则对 FRD 性能的影响。